阿里云文档 2026-03-06

MySQL整库离线同步到Hive

本文以MySQL为源端,Hive为目标端场景为例,为您介绍如何把MySQL整个数据库的数据离线同步到Hive。

阿里云文档 2024-09-24

如何将Hive数据导入AnalyticDB for MySQL湖仓

云原生数据仓库 AnalyticDB MySQL 版支持通过Hive数据迁移将Hive数据迁移至OSS。本文介绍如何添加Hive数据源,新建Hive迁移链路并启动任务,以及数据迁移后如何进行数据分析和管理数据迁移任务。

阿里云文档 2024-09-06

如何使用AnalyticDB MySQL湖仓版Spark访问Hive数据

云原生数据仓库 AnalyticDB MySQL 版Spark支持通过Thrift协议和JDBC协议访问Hive数据。您也可以对Hive数据源启用Kerberos认证,确保只有经过Kerberos认证的客户端能够访问集群、正常提交作业,以此保证数据安全性。本文以E-MapReduce集群的Hive服务为例,介绍访问Hive数据源的方法。

问答 2024-06-10 来自:开发者社区

E-MapReduce集群将Mysql导入数据到Hive中的时间字段多了13个小时

E-MapReduce集群将Mysql导入数据到Hive中的时间字段多了13个小时

文章 2024-05-26 来自:开发者社区

使用 Spark 抽取 MySQL 数据到 Hive 时某列字段值出现异常(字段错位)

@[toc] 源数据描述 在 MySQL 中建立了表 order_info ,其字段信息如下所示: +--------------------+------------------+------+-----+-------------------+-----------------------------+...

文章 2023-03-25 来自:开发者社区

【大数据开发运维解决方案】sqoop增量导入oracle/mysql数据到hive时时间字段为null处理

前面几篇文章详细介绍了sqoop全量增量导入数据到hive,大家可以看到我导入的数据如果有时间字段的话我都是在hive指定成了string类型,虽然这样可以处理掉时间字段在hive为空的问题,但是在kylin创建增量cube时需要指定一个时间字段来做增量,所以上面那种方式不行,这里的处理方式为把string改成timestamp类型,看实验:一、源库创建测试表创建测试表:create table....

【大数据开发运维解决方案】sqoop增量导入oracle/mysql数据到hive时时间字段为null处理
问答 2022-07-27 来自:开发者社区

用flink cdc 实现mysql到hive数据同步有没demo?能实现自动加字段吗

用flink cdc 实现mysql到hive数据同步有没demo?能实现自动加字段吗

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐