flink读取kafka实时数据sink到mysql(scala版)_scala kafkasink_落花流水i的博客-程序员宅基地

技术标签: Flink  

pom文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.mo</groupId>
    <artifactId>Flink</artifactId>
    <version>1.0-SNAPSHOT</version>


    <dependencies>

        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-nop</artifactId>
            <version>1.7.2</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-jdbc_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>


        <dependency>

            <groupId>mysql</groupId>

            <artifactId>mysql-connector-java</artifactId>

            <version>5.1.27</version>

        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-scala_2.11</artifactId>
            <version>1.10.0</version>

        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.flink/flink-streaming-scala -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-scala_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka-0.11_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-elasticsearch6_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>


        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-statebackend-rocksdb_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner-blink_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-api-scala-bridge_2.11</artifactId>
            <version>1.10.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-csv</artifactId>
            <version>1.10.0</version>
        </dependency>



    </dependencies>

    <build>
        <plugins>
            <!-- 该插件用于将Scala代码编译成class文件 -->
            <plugin>
                <groupId>net.alchim31.maven</groupId>
                <artifactId>scala-maven-plugin</artifactId>
                <version>3.4.6</version>
                <executions>
                    <execution>
                        <!-- 声明绑定到maven的compile阶段 -->
                        <goals>
                            <goal>compile</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-assembly-plugin</artifactId>
                <version>3.0.0</version>
                <configuration>
                    <descriptorRefs>
                        <descriptorRef>jar-with-dependencies</descriptorRef>
                    </descriptorRefs>
                </configuration>
                <executions>
                    <execution>
                        <id>make-assembly</id>
                        <phase>package</phase>
                        <goals>
                            <goal>single</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>



</project>

需求:统计数据流中ID为1的温度计和相对应的温度值
数据流(id,timeStamp,Temp)=>(id,Temp)

package com.mo.flinkTable

import org.apache.flink.streaming.api.scala._
import org.apache.flink.table.api._
import org.apache.flink.table.api.scala._
import org.apache.flink.table.descriptors._

object kafkaTomysql {
    
  def main(args: Array[String]): Unit = {
    
    val env = StreamExecutionEnvironment.getExecutionEnvironment

    val blinkStreamSettings = EnvironmentSettings.newInstance()
      .useBlinkPlanner()
      .inStreamingMode()
      .build()
    val tableEnv = StreamTableEnvironment.create(env, blinkStreamSettings)

//    val tableEnv = StreamTableEnvironment.create(env)

        tableEnv.connect(new Kafka()
          .version("0.11")
          .topic("thermometer")
          .property("zookeeper.connect", "hadoop102:2181")
          .property("zookeeper.connect", "hadoop103:2181")
          .property("zookeeper.connect", "hadoop104:2181")
          .property("bootstrap.servers", "hadoop102:9092")
          .property("bootstrap.servers", "hadoop103:9092")
          .property("bootstrap.servers", "hadoop104:9092")
        )
          .withFormat(new Csv())
          .withSchema(new Schema()
            .field("id", DataTypes.STRING())
            .field("timestamp", DataTypes.BIGINT())
            .field("Temp", DataTypes.DOUBLE())
          )
          .createTemporaryTable("kafkaInputTable")

    val Result : Table = tableEnv.from("kafkaInputTable")
    val kafkaEndResult = Result.select("id , Temp")
      .filter("id == '1' ")

    kafkaEndResult.toAppendStream[(String,Double)].print("kafkaDataTest")
    
    val sinkDDL : String =
      """
        |create table kafkaOutputTable (
        | id varchar ,
        | temp double
        |) with (
        | 'connector.type' = 'jdbc',
        | 'connector.url' = 'jdbc:mysql://localhost:3306/test',
        | 'connector.table' = 'thermometer',
        | 'connector.driver' = 'com.mysql.jdbc.Driver',
        | 'connector.username' = 'root',
        | 'connector.password' = '123456'
        |)
     """.stripMargin
     //注意thermometer是真正存在mysql中的表,而kafkaOutputTable只是在流式环境中存在的与mysql中所对应的表

    tableEnv.sqlUpdate(sinkDDL) //执行DDL创建kafkaOutputTable表
    kafkaEndResult.insertInto("kafkaOutputTable")
    env.execute("kafka to mysql test")

  }
}

liunx上开启zoookeeper和kafka,创建一个thermometer主题,注意mysql要提前创建好代码中定义好的thermometer表和相应字段,运行代码可以看到kafka的数据已经实时的存在了mysql中.

在这里插入图片描述

在这里插入图片描述
.w

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_44080445/article/details/113485342

智能推荐

修改 Docker 中 MySQL 8 容器时区的问题_docker mysql8 时区-程序员宅基地

提供以下几个方案1. 临时设置,重启后失效2. 已有容器,启动时追加时区参数3. 已有容器,进入容器内部修改配置文件4. 创建新的容器,并指定时区参数5. 高级篇:通过 docker cp 操作配置文件虽然在正式环境中不推荐使用 MySQL 容器来存储数据,但是在内网的开发环境中还是可以使用的,但是 MySQL 容器默认的不是中国时区,而是世界标准时间(UTC),所以在国内使用的话需要配置一下,否则会早8个小时,可以通过下面方法检查一下:查看数据库当前时间:SELECT NOW()NOW_docker mysql8 时区

k8s-Pod资源管理与控制器_k8spod和控制类关系-程序员宅基地

一、Pod特点:1、最小部署单元2、一组容器的集合3、一个Pod中的容器共享网络命名空间4、Pod是短暂的二、Pod分类:1、infrastructure container:基础容器概念:维护整个Pod网络空间,在每个节点上都操作,每次创建Pod时候就会自动创建,与Pod对应的,对于用户是透明的。2、initcontainers:初始化容器概念:先于业务容器开始执行,不见得一定要有,要有pod顺序要求的话就必须要有3、container:业务容器概念:跑生产项目业_k8spod和控制类关系

化身“监工”的AI,我们该如何相处?-程序员宅基地

来源:脑极体AI技术带来整体社会福利增加的同时,也正在带来一系列新的问题。目前来说,与人工智能是否会取代人类这类“玄学”问题而言,当下最现实的一个问题就是人和AI的协作问题了。不久前,..._学会和人工智能相处

记录一些java工具插件_java插件实现记录应用服务执行过的所有类和方法-程序员宅基地

记录一些可以提高效率的工具插件,用到了就记录下。1.lombok插件,通过注解自动生成bean类的get和set方法;使用方法:pom文件引入,IDE安装lombok插件;bean类上使用注解@Data;2.mybatis-general-gui,通过工具自动生成dao和xml文件,包含了常用的增删改查操作数据库的使用方法;使用方法:1)下载地址:https://..._java插件实现记录应用服务执行过的所有类和方法

随记--前端切图-程序员宅基地

1.如果用psd所切图后,生成的图有各种白色边框,杂色等问题,可能是生成图片保存是造成的

通过PEB结构遍历进程模块-程序员宅基地

_UNICODE_STRING 结构体:1 typedef struct _UNICODE_STRING 2 {3 USHORT Length;4 USHORT MaximumLength;5 PWSTR Buffer;6 7 } UNICODE_STRING ,*PUNICODE_STRING;_PEB_LDR_DAT...

随便推点

java实现对树形结构(文件夹式)数据数组进行排序-程序员宅基地

http://www.oschina.net/question/572366_235443?fromerr=kI0toIyFFolder有如下属性:id,pid(父节点),sequence(同级节点排序依据)有如下数据:F1 (1,0,1) F2 (2,0,2)F3 (3,4,1)F4 (4,2,1)F5 (5,1,1)F6 (6,1,2)F7 (7,6,1...

TabContainer 不显示问题-程序员宅基地

html显示代码,如下:<div class="ajax__tab_xp" id="TabContainer1" style="visibility:hidden;"><div id="TabContainer1_header"><span id="__tab_TabContainer1_TabPanel1"> 第..._pdf cff container 不显示

天天用迭代器和foreach,那它俩到底是怎样工作的呢?_迭代器底层是foreach-程序员宅基地

天天用迭代器和foreach,那它俩到底是怎样工作的呢?_迭代器底层是foreach

解决.py文件右键没有Edit with IDLE选项的方法_win10没有edit命令 替代-程序员宅基地

重装了win10,64位,安装完python3.6和Sublime Text,今天心血来潮想用python的IDLE来编辑时却发现:鼠标右键.py文件之后,却没有Edit with IDLE选项。网上搜到的方案完美的解决了这个问题,故在此做一下记录:1、打开注册表(Windows+R,输入regedit回车)2、在注册表中找到HKEY_CLASSES_ROOT\Syste..._win10没有edit命令 替代

K-1.1.0 在树莓派3B上配置kali linux系统-程序员宅基地

过去三天我在淘宝入手的raspberry pi 3B上安装并配置了kali linux系统,并且按我的需求为它增加了一些功能。 在这个期间,我对linux系统有了基础的了解与掌握。本文非常细致地描述了在树莓派3B上配置kali linux系统的过程,主要受众是自己,所以没有精美的排版。基础配置过程如下:(本过程关注网上轻易搜索不到的细节,其他网上比较常见的操作细节将省略,因为它们...

mysql postgres json_Postgre Sql 写入Json字段数据_唐胜鑫的博客-程序员宅基地

INSERT INTO nash_invoice( id, invoice_no, contract_no, contract_type, customer_name, nash_company, opening_type, invoice_type, invoice_base_info, invoice_open_status, invoice_other_info, created_by, c..._postgresql的json字段存mysql