阿里云文档 2024-08-02

一种利用MySQL数据源与OSS HDFS数据源实现实时入湖iceberg的方法

本文以MySQL实时入湖写入OSS-HDFS场景为例,为您介绍如何通过数据集成的方式,实时入湖。

阿里云文档 2024-07-02

Spark读写OSS-HDFS数据源

AnalyticDB for MySQL湖仓版(3.0)Spark支持访问OSS-HDFS数据源,本文介绍如何使用Spark来操作OSS-HDFS数据。

文章 2024-06-12 来自:开发者社区

使用Apache Spark从MySQL到Kafka再到HDFS的数据转移

使用Apache Spark从MySQL到Kafka再到HDFS的数据转移 在本文中,将介绍如何构建一个实时数据pipeline,从MySQL数据库读取数据,通过Kafka传输数据,最终将数据存储到HDFS中。我们将使用Apache Spark的结构化流处理和流处理功能,以及Kafka和HDFS作为我们的数据传输和存储工具。 1、环境设置: 首先,确保在您的环境中正确安装...

使用Apache Spark从MySQL到Kafka再到HDFS的数据转移
阿里云文档 2024-03-27

AnalyticDB PostgreSQL读写HDFS、Hive或MySQL外部数据

若您需要通过AnalyticDB PostgreSQL版访问外部异构数据源(HDFS、Hive和JDBC)时,可以使用异构数据源访问功能将外部数据转换为AnalyticDB PostgreSQL版数据库优化后的格式进行查询和分析。

文章 2024-03-03 来自:开发者社区

Sqoop【付诸实践 01】Sqoop1最新版 MySQL与HDFS\Hive\HBase 核心导入导出案例分享+多个WRAN及Exception问题处理(一篇即可学会在日常工作中使用Sqoop)

1.环境说明 # 不必要信息不再贴出 # JDK [root@tcloud ~]# java -version java version "1.8.0_251" # MySQL [root@tcloud ~]# mysql -V mysql Ver 14.14 Distrib 5.7.28 # Hadoop [root@tcloud ~]# hadoop ...

文章 2023-08-04 来自:开发者社区

5、DataX(DataX简介、DataX架构原理、DataX部署、使用、同步MySQL数据到HDFS、同步HDFS数据到MySQL)(二)

2、配置文件说明(1)Reader参数说明3、提交任务(1)清空历史数据hadoop fs -rm -r -f /base_province/*(2)进入DataX根目录(3)执行如下命令python bin/datax.py job/base_province.json4、查看结果&...

5、DataX(DataX简介、DataX架构原理、DataX部署、使用、同步MySQL数据到HDFS、同步HDFS数据到MySQL)(二)
文章 2023-08-04 来自:开发者社区

5、DataX(DataX简介、DataX架构原理、DataX部署、使用、同步MySQL数据到HDFS、同步HDFS数据到MySQL)(一)

1、DataX简介1.1 DataX概述DataX 是阿里巴巴开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。 源码地址:https://github.com/alibaba/DataX1.2 DataX支持的数据源DataX目前已经...

5、DataX(DataX简介、DataX架构原理、DataX部署、使用、同步MySQL数据到HDFS、同步HDFS数据到MySQL)(一)
文章 2023-06-06 来自:开发者社区

大数据 | (五)通过Sqoop实现从MySQL导入数据到HDFS

一、前言各位CSDN的朋友们大家好!这篇文章是在困扰了我三天(甚至更久),经过不断尝试与踩坑总结出来的通过 Sqoop 从Mysql数据库导入数据到 Hadoop hdfs 的详细笔记与感想,希望能帮助到大家!本篇文章收录于 初心 的 大数据 专栏。🏠 个人主页:初心%个人主页&#x...

大数据 | (五)通过Sqoop实现从MySQL导入数据到HDFS
问答 2023-01-15 来自:开发者社区

有没有大佬,有flink cdc 从mysql 写入hdfs 得实例呢?

有没有大佬,有flink cdc 从mysql 写入hdfs 得实例呢?

问答 2022-11-27 来自:开发者社区

请问flink-cdc数据源是oracle/mysql 目标端是hdfs/doris/mysql.

请问flink-cdc数据源是oracle/mysql 目标端是hdfs/doris/mysql.这种长时间增量拉取,能保证数据一致性么

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。