flink-cdc实时增量同步mysql数据到hive
CDC是(Change Data Capture 变更数据获取)的简称。核心思想是,监测并捕获数据库的变动(包括数据 或 数据表的插入INSERT、更
本文首发于我的个人博客网站 等待下一个秋-Flink什么是CDC? CDC是(Change Data Capture 变更数据获取)的简称。核心思想是,监测并捕获数据库的变动(包括数据 或 数据表的插入INSERT、更新UPDATE、删除DELETE等),将这些变更按发生的顺序完整记录下来,写入到消息中间件中以供其他服务进行订阅及消费。 Flink_CDC 1. 环境准备 说明:如果没有安装hadoop,那么可以不用yarn,直接用flink standalone环境吧。 2. 下载下列依赖包 下面两个地址下载flink的依赖包,放在lib目录下面。 flink-sql-connector-hive-2.2.0_2.11-1.13.5.jar 如果你的Flink是其它版本mssql数据库同步,可以来这里下载。 说明:我hive版本是2.1.1,为啥这里我选择版本号是2.2.0呢,这是官方文档给出的版本对应关系: Metastore versionMaven dependencySQL Client JAR 1.0.0 - 1.2.2 flink-sql-connector-hive-1.2.2 Download 2.0.0 - 2.2.0 flink-sql-connector-hive-2.2.0 Download 2.3.0 - 2.3.6 flink-sql-connector-hive-2.3.6 Download 3.0.0 - 3.1.2 flink-sql-connector-hive-3.1.2 Download 官方文档地址在这里,可以自行查看。 3. 启动flink-sql client 1) 先在yarn上面启动一个application,进入flink13.5目录,执行:
2) 进入flink sql命令行
img4. 操作Hive 1) 首选创建一个catalog
这里需要注意:hive-conf-dir是你的hive配置文件地址,里面需要有hive-site.xml这个主要的配置文件,你可以从hive节点复制那几个配置文件到本台机器上面。 2) 查询 此时我们应该做一些常规DDL操作,验证配置是否有问题:
随便查询一张表
可能会报错: image-20220915183211513 把hadoop-mapreduce-client-core-3.0.0.jar放到flink的Lib目录下,这是我的,实际要根据你的hadoop版本对应选择。 注意:很关键,把这个jar包放到Lib下面后,需要重启application,然后重新用yarn-session启动一个application,因为我发现好像有缓存,把这个application kill 掉,重启才行: image-20220915183454691 然后,数据可以查询了,查询结果: image-20220915183102548 5. mysql数据同步到hive mysql数据无法直接在flink sql导入hive,需要分成两步: mysql数据同步kafka;kafka数据同步hive; 至于mysql数据增量同步到kafka,前面有文章分析,这里不在概述;重点介绍kafka数据同步到hive。 1) 建表跟kafka关联绑定: 前面mysql同步到kafka,在flink sql里面建表,connector='upsert-kafka',这里有区别:
2) 建一张hive表 创建hive需要指定SET table.sql-dialect=hive;,否则flink sql 命令行无法识别这个建表语法。为什么需要这样,可以看看这个文档Hive 方言。
上面我们可以现在看看hive里面有哪些数据库,有哪些表;接下来创建一张hive表:
然后做数据同步:
注意:这里指定表名,我用的是catalog.database.table,这种格式,因为这是两个不同的库,需要明确指定catalog - database - table。 网上还有其它方案,关于mysql实时增量同步到hive: img 网上看到一篇写的实时数仓架构方案,觉得还可以: image-20220916134859155 参考资料 nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/table/hive/hive_dialect/ (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |