阿里云文档 2025-10-31

注册Hive Kerberos集群

在实时计算控制台上注册Hive Kerberos集群信息后,可以访问支持Kerberos的Hive。本文为您介绍如何注册Hive Kerberos集群。

阿里云文档 2025-06-05

如何使用Flink,通过CTAS语句同步MySQL数据至StarRocks

本文为您介绍如何使用EMR DataFlow集群中的Flink服务,通过CTAS语句将MySQL数据同步至EMR Serverless StarRocks中。

阿里云文档 2025-05-14

Flink网络连通常见问题

实时计算Flink版默认不具备访问公网的能力,本文为您介绍如何进行公网访问、跨VPC访问、域名解析以及网络连通性测试等相关的常见问题。

文章 2024-03-10 来自:开发者社区

Flink【环境搭建 01】(flink-1.9.3 集群版安装、配置、验证)

我使用的安装文件是 flink-1.9.3-bin-scala_2.12.tgz ,以下内容均以此版本进行说明。 说明 搭建集群首先要进行集群的规划【哪台做主节点,哪些做从节点】,这里简单搭建一个 3 节点的 Flink Standalone 集群,其中三台主机Flink01、Flink02、Flink03 均为 worker 节点&#x...

阿里云文档 2024-01-25

问题描述如何购买Flink半托管集群问题原因查看Flink全托管控制台,存在Flink半托管/ACK的选项,但是没有找到创建Flink半托管的入口。解决方案目前Flink控制台已不再支持创建Flink半托管集群。若需创建自运维半托管的Flink集群,可以进入EMR控制台创建Dataflow集群。EM...

阿里云文档 2023-09-03

集群监控中的Flink指标有哪些_EMR on ECS_开源大数据平台 E-MapReduce(EMR)

本文为您介绍Flink指标的详细信息。

问答 2023-06-11 来自:开发者社区

我有两套环境 用的一个flink,kafka在A集群,HBase在B 集群,我在其他节点安装了一个?

我有两套环境 用的一个flink,kafka在A集群,HBase在B 集群,我在其他节点安装了一个flink,然后用flink将A集群的kafka的数据和B集群的hbase的数据做join,但是在flink中无法同时读到这两个服务的数据 把kafka 的connector 放进去就读不到hbase了,一直报zookeeper断开链接,我的hbase是华为的MRS的环境,添加了kerberos的认....

问答 2023-05-29 来自:开发者社区

在机器学习PAI中useRemoteEnv也需要在对应的flink集群安装对应的S3插件吗?

现在能访问S3文件系统了,但是又有个新的问题,现在我们代码里面使用useRemoteEnv("XXX", 8080, 1),通过远程提交的方式提交python代码到我们的云服务上面,然后通过下面的方法尝试把模型放到S3上,结果报了下面的错误.请问下老师,在机器学习PAI中useRemoteEnv也需要在对应的flink集群安装对应的S3插件吗?类似于下载对应的jar包,然后添加到 Flink 的....

问答 2023-05-01 来自:开发者社区

兄弟们,我们公司flink集群默认安装了mysql-connector,但是这个好像和cdc con

兄弟们,我们公司flink集群默认安装了mysql-connector,但是这个好像和cdc connector冲突,这个咋搞啊?为啥我的两个jar包放一起就报错了,java.lang.nosuchmethoderror: com.mysql.cj.CharsetMapping.getJavaEncodingForMysqlCharset(Ljava/lang/String;)Ljava/lan....

问答 2019-01-22 来自:开发者社区

问一下大佬,如果远程提交程序到flink集群运行的话的话,怎么提交,本地是否得安装flink的客户端,客户端需要怎么配置~代码中获取环境环境的时候需要把flink集群的ip及端口加上吗?

转自钉钉群21789141:问一下大佬,如果远程提交程序到flink集群运行的话的话,怎么提交,本地是否得安装flink的客户端,客户端需要怎么配置~代码中获取环境环境的时候需要把flink集群的ip及端口加上吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注