使用Apache Hudi构建大规模、事务性数据湖
一个近期由Hudi PMC & Uber Senior Engineering Manager Nishith Agarwal分享的Talk 关于Nishith Agarwal更详细的介绍,主要从事数据方面的工作,包...

Uber基于Apache Hudi增量 ETL 构建大规模数据湖
Uber 的全球数据仓库团队使用统一的、 PB 级、集中建模的数据湖使所有 Uber 的数据民主化。数据湖由使用维度数据建模技术[1]开发的基础事实、维度和聚合表组成,工程师和数据科学家可以自助方式访问这些表,为 Uber 的数据工程、数据科学、机器学习和报告提供支持。因此,计算这些表的 ETL(提取、转换、加载)管道对 Uber 的应用程序和服务至关重要,为乘客安全、ETA 预测、欺诈检测等核....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
Apache hudi相关内容
- Apache hudi lakehouse
- hudi Apache
- Apache hudi s3
- Apache hudi最佳实践
- Apache hudi架构
- Apache hudi cdc
- Apache hudi构建管道
- Apache hudi管道
- Apache hudi分析
- Apache hudi存储
- Apache hudi场景
- Apache hudi索引分析
- Apache hudi索引
- hudi Apache索引分析
- Apache hudi deltalake
- Apache hudi示例
- 数据湖Apache hudi
- Apache hudi zeppelin
- Apache hudi集成
- Apache hudi应用场景
- 实战Apache hudi
- 实战datadog监控Apache hudi
- Apache hudi事务
- Apache hudi数据湖
- Apache hudi构建数据湖
- Apache hudi迁移机制
- Apache hudi异步compaction
- Apache hudi异步部署
- Apache hudi异步
- Apache hudi amazon emr
Apache更多hudi相关
- Apache hudi运行
- Apache hudi功能
- 技术Apache hudi
- 查询Apache hudi
- Apache hudi方案
- Apache hudi构建lakehouse
- Apache hudi实时数据湖
- Apache hudi数据湖实践
- Apache hudi构建实时数据湖
- Apache pulsar hudi构建lakehouse方案
- Apache hudi平台
- Apache hudi概念
- Apache hudi流批一体实践
- Apache hudi核心概念
- Apache hudi模式
- Apache hudi机制
- Apache hudi实战
- Apache hudi清理
- Apache hudi aws
- Apache hudi湖仓一体
- Apache hudi流批一体
- Apache hudi数据集
- Apache hudi构建平台
- Apache hudi类型
- Apache hudi流式
- Apache hudi payload
- Apache hudi流批一体架构
- Apache hudi数据湖平台
- Apache hudi湖仓
- Apache hudi特性
Apache您可能感兴趣
- Apache meetup
- Apache阿里云
- Apache doris
- Apache日志
- Apache教程
- Apache配置
- Apache技术
- Apache数据库
- Apache php7.1
- Apache php
- Apache flink
- Apache rocketmq
- Apache安装
- Apache dubbo
- Apache tomcat
- Apache服务器
- Apache linux
- Apache spark
- Apache开发
- Apache服务
- Apache报错
- Apache mysql
- Apache微服务
- Apache访问
- Apache kafka
- Apache从入门到精通
- Apache实践
- Apache应用
- Apache web
- Apache数据
Apache Spark 中国技术社区
阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!
+关注