技术标签: Flink
pom文件
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.mo</groupId>
<artifactId>Flink</artifactId>
<version>1.0-SNAPSHOT</version>
<dependencies>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-nop</artifactId>
<version>1.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-jdbc_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.27</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-scala_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.flink/flink-streaming-scala -->
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-streaming-scala_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-connector-kafka-0.11_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-connector-elasticsearch6_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-statebackend-rocksdb_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-planner_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-planner-blink_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-api-scala-bridge_2.11</artifactId>
<version>1.10.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-csv</artifactId>
<version>1.10.0</version>
</dependency>
</dependencies>
<build>
<plugins>
<!-- 该插件用于将Scala代码编译成class文件 -->
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.4.6</version>
<executions>
<execution>
<!-- 声明绑定到maven的compile阶段 -->
<goals>
<goal>compile</goal>
</goals>
</execution>
</executions>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-assembly-plugin</artifactId>
<version>3.0.0</version>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
</configuration>
<executions>
<execution>
<id>make-assembly</id>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
需求:统计数据流中ID为1的温度计和相对应的温度值
数据流(id,timeStamp,Temp)=>(id,Temp)
package com.mo.flinkTable
import org.apache.flink.streaming.api.scala._
import org.apache.flink.table.api._
import org.apache.flink.table.api.scala._
import org.apache.flink.table.descriptors._
object kafkaTomysql {
def main(args: Array[String]): Unit = {
val env = StreamExecutionEnvironment.getExecutionEnvironment
val blinkStreamSettings = EnvironmentSettings.newInstance()
.useBlinkPlanner()
.inStreamingMode()
.build()
val tableEnv = StreamTableEnvironment.create(env, blinkStreamSettings)
// val tableEnv = StreamTableEnvironment.create(env)
tableEnv.connect(new Kafka()
.version("0.11")
.topic("thermometer")
.property("zookeeper.connect", "hadoop102:2181")
.property("zookeeper.connect", "hadoop103:2181")
.property("zookeeper.connect", "hadoop104:2181")
.property("bootstrap.servers", "hadoop102:9092")
.property("bootstrap.servers", "hadoop103:9092")
.property("bootstrap.servers", "hadoop104:9092")
)
.withFormat(new Csv())
.withSchema(new Schema()
.field("id", DataTypes.STRING())
.field("timestamp", DataTypes.BIGINT())
.field("Temp", DataTypes.DOUBLE())
)
.createTemporaryTable("kafkaInputTable")
val Result : Table = tableEnv.from("kafkaInputTable")
val kafkaEndResult = Result.select("id , Temp")
.filter("id == '1' ")
kafkaEndResult.toAppendStream[(String,Double)].print("kafkaDataTest")
val sinkDDL : String =
"""
|create table kafkaOutputTable (
| id varchar ,
| temp double
|) with (
| 'connector.type' = 'jdbc',
| 'connector.url' = 'jdbc:mysql://localhost:3306/test',
| 'connector.table' = 'thermometer',
| 'connector.driver' = 'com.mysql.jdbc.Driver',
| 'connector.username' = 'root',
| 'connector.password' = '123456'
|)
""".stripMargin
//注意thermometer是真正存在mysql中的表,而kafkaOutputTable只是在流式环境中存在的与mysql中所对应的表
tableEnv.sqlUpdate(sinkDDL) //执行DDL创建kafkaOutputTable表
kafkaEndResult.insertInto("kafkaOutputTable")
env.execute("kafka to mysql test")
}
}
liunx上开启zoookeeper和kafka,创建一个thermometer主题,注意mysql要提前创建好代码中定义好的thermometer表和相应字段,运行代码可以看到kafka的数据已经实时的存在了mysql中.
.w
提供以下几个方案1. 临时设置,重启后失效2. 已有容器,启动时追加时区参数3. 已有容器,进入容器内部修改配置文件4. 创建新的容器,并指定时区参数5. 高级篇:通过 docker cp 操作配置文件虽然在正式环境中不推荐使用 MySQL 容器来存储数据,但是在内网的开发环境中还是可以使用的,但是 MySQL 容器默认的不是中国时区,而是世界标准时间(UTC),所以在国内使用的话需要配置一下,否则会早8个小时,可以通过下面方法检查一下:查看数据库当前时间:SELECT NOW()NOW_docker mysql8 时区
一、Pod特点:1、最小部署单元2、一组容器的集合3、一个Pod中的容器共享网络命名空间4、Pod是短暂的二、Pod分类:1、infrastructure container:基础容器概念:维护整个Pod网络空间,在每个节点上都操作,每次创建Pod时候就会自动创建,与Pod对应的,对于用户是透明的。2、initcontainers:初始化容器概念:先于业务容器开始执行,不见得一定要有,要有pod顺序要求的话就必须要有3、container:业务容器概念:跑生产项目业_k8spod和控制类关系
来源:脑极体AI技术带来整体社会福利增加的同时,也正在带来一系列新的问题。目前来说,与人工智能是否会取代人类这类“玄学”问题而言,当下最现实的一个问题就是人和AI的协作问题了。不久前,..._学会和人工智能相处
记录一些可以提高效率的工具插件,用到了就记录下。1.lombok插件,通过注解自动生成bean类的get和set方法;使用方法:pom文件引入,IDE安装lombok插件;bean类上使用注解@Data;2.mybatis-general-gui,通过工具自动生成dao和xml文件,包含了常用的增删改查操作数据库的使用方法;使用方法:1)下载地址:https://..._java插件实现记录应用服务执行过的所有类和方法
1.如果用psd所切图后,生成的图有各种白色边框,杂色等问题,可能是生成图片保存是造成的
_UNICODE_STRING 结构体:1 typedef struct _UNICODE_STRING 2 {3 USHORT Length;4 USHORT MaximumLength;5 PWSTR Buffer;6 7 } UNICODE_STRING ,*PUNICODE_STRING;_PEB_LDR_DAT...
http://www.oschina.net/question/572366_235443?fromerr=kI0toIyFFolder有如下属性:id,pid(父节点),sequence(同级节点排序依据)有如下数据:F1 (1,0,1) F2 (2,0,2)F3 (3,4,1)F4 (4,2,1)F5 (5,1,1)F6 (6,1,2)F7 (7,6,1...
html显示代码,如下:<div class="ajax__tab_xp" id="TabContainer1" style="visibility:hidden;"><div id="TabContainer1_header"><span id="__tab_TabContainer1_TabPanel1"> 第..._pdf cff container 不显示
天天用迭代器和foreach,那它俩到底是怎样工作的呢?_迭代器底层是foreach
重装了win10,64位,安装完python3.6和Sublime Text,今天心血来潮想用python的IDLE来编辑时却发现:鼠标右键.py文件之后,却没有Edit with IDLE选项。网上搜到的方案完美的解决了这个问题,故在此做一下记录:1、打开注册表(Windows+R,输入regedit回车)2、在注册表中找到HKEY_CLASSES_ROOT\Syste..._win10没有edit命令 替代
过去三天我在淘宝入手的raspberry pi 3B上安装并配置了kali linux系统,并且按我的需求为它增加了一些功能。 在这个期间,我对linux系统有了基础的了解与掌握。本文非常细致地描述了在树莓派3B上配置kali linux系统的过程,主要受众是自己,所以没有精美的排版。基础配置过程如下:(本过程关注网上轻易搜索不到的细节,其他网上比较常见的操作细节将省略,因为它们...
INSERT INTO nash_invoice( id, invoice_no, contract_no, contract_type, customer_name, nash_company, opening_type, invoice_type, invoice_base_info, invoice_open_status, invoice_other_info, created_by, c..._postgresql的json字段存mysql