宜搭集成自动化数据更新节点运行经常超时
编辑了一个定时自动触发的集成自动化,其中这些数据更新节点,前一节点是获取多条数据,本节点是更新这些数据,数据量不大的,大概每次是26条,每条有24个数据需要更新其中13个数据。 看日志,在这个节点OK通过的运行时间大概是9200ms,报错的是: "exceptionMsg": "节点[更新数据-n+1变L] 执行异常:数据节点连接器执行异常,e:更新数据失败了,errorMsg:batchUpd....
在吗,在dataworks控制台点开一个数据集成节点运行的,这个节点执行需要的时间挺长的,浏览器内存
在吗,在dataworks控制台点开一个数据集成节点运行的,这个节点执行需要的时间挺长的,浏览器内存不足刷新了看不到执行情况了,在哪里可以看任务执行情况
DataWorks集成和sql节点更新,需要在运维中心把以前的周期实例终止运行再把最新的提交发布嘛?
DataWorks集成和sql节点更新,需要在运维中心把以前的周期实例终止运行再把最新的提交发布嘛?还是说产品已经自己做到了先终止更新前的实例,不需要人为先停止?
Dataphin为什么第二天还会自动运行失败的集成任务实例
问题描述Dataphin集成任务实例已运行失败了两次,为什么第二天还会自动运行?问题原因任务实例被其他用户手动重跑运行了。解决方案在实例的操作日志中可以看到有其他用户在第二天手动重跑运行了任务。适用于Dataphin
数据集成任务运行报错java.io.IOException:Failedonlocalexception:java.io.IOException:javax.security.sasl.SaslException:GSSinitiatefailed[CausedbyGSSException:Novalidcredentialsprovided
问题描述Dataphin中数据集成任务运行报错“java.io.IOException: Failed on local exception: java.io.IOException: javax.security.sasl.SaslException: GSS initiate failed [C...
Dataphin的集成任务在调度后运行过程中一直卡住无响应什么原因
问题描述Dataphin的集成任务在调度后运行过程中一直卡住无响应什么原因。DlinkTransRunner - Dlink Writer.Job [MySQL_1] do init work . obproxy Druid LogFactory, userDefinedLogType=null, ...
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。