问答 2017-07-13 来自:开发者社区

资源管理,上传资源:上传为ODPS资源本次上传,资源会同步上传至ODPS中,请问如果我上传的文件名字为abc.csv,那么保存到ODPS表里面对应的表名字是什么?是否可以通过SQL语句查询上传后的文件对应的表数据?

资源管理,上传资源:上传为ODPS资源本次上传,资源会同步上传至ODPS中,请问如果我上传的文件名字为abc.csv,那么保存到ODPS表里面对应的表名字是什么?是否可以通过SQL语句查询上传后的文件对应的表数据?

问答 2017-07-04 来自:开发者社区

看Maxcompute说明文档说输入数据只能是表结构 是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现

看Maxcompute说明文档说输入数据只能是表结构是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现

文章 2017-07-03 来自:开发者社区

大数据指导性文件要来了 “大数据+”助力产业升级

近日,有消息透露,大数据未来几年最重要的指导性文件——《大数据产业“十三五”发展规划》,已经过集中讨论和修改有望年内发布。其中,内容还包括推动大数据在各领域的应用,“大数据+”将助力产业发展升级。 可以说,未来五年内,大数据必定是全社会最具价值的资源之一,并将不同程度地渗透到每个行业领域和部门。大数据所涉及的领域,将迎来全产业链的创新与变革。 互联网时代,数据几乎每时每刻地在产生,且以指数规模.....

问答 2017-06-27 来自:开发者社区

UDF读取文件问题 我在一个UDF中需要读一个文件,所以我用odpscmd把这个文件作为资源加到我的project中: > add file b_xx.txt -f OK: Resource 'b_xx.txt' have been updated. 我在UDF的setup中使用context.readResourceFileAsStream("b_xx.txt")读取该资源的时候,提示file not found。 是不是需要一个odps内部使用的资源定位路径才能访问该资源? 另外,我在i

UDF读取文件问题我在一个UDF中需要读一个文件,所以我用odpscmd把这个文件作为资源加到我的project中:add file b_xx.txt -f OK: Resource 'b_xx.txt' have been updated.我在UDF的setup中使用context.readResourceFileAsStream("b_xx.txt")读取该资源的时候,提示file no...

问答 2017-06-26 来自:开发者社区

请问MaxCompute > 快速开始 > 编写 UDF ,如果用java编写UDF,能不能把调用python或者js的jar也放到我这个UDFjar中,实现我的代码调用python文件执行python中的算法。

请问MaxCompute > 快速开始 > 编写 UDF ,如果用java编写UDF,能不能把调用python或者js的jar也放到我这个UDFjar中,实现我的代码调用python文件执行python中的算法。

问答 2017-05-27 来自:开发者社区

今天看了下,以文件导入数据的形式到ODPS好像有大小的限制,小于100M;

今天看了下,以文件导入数据的形式到ODPS好像有大小的限制,小于100M;

问答 2017-05-15 来自:开发者社区

用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败

用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败,FAILED: Copy file to shared cache failed: PanguOpen4Read4R PANGU_FILE_NOT_FOUND...

问答 2017-05-14 来自:开发者社区

如何在shell脚本中 将一个txt文件中的数据上传到 MaxCompute的某张表中, 把这两条命令组合成一条的办法吧 /odpscmd/bin/odpscmd tunnel upload "$FILE" project.table

如何在shell脚本中 将一个txt文件中的数据上传到 MaxCompute的某张表中, 把这两条命令组合成一条的办法吧/odpscmd/bin/odpscmdtunnel upload "$FILE" project.table

问答 2017-05-14 来自:开发者社区

你好,目前业务上有一些字典文件需要在mapper或者reducer阶段查询,但是文件大小比较大,大概几百兆甚至几个G的样子,MaxCompute有分布式缓存的方案吗?? 查询的response time一般需要多少时间? 如果大于2G的话,可以用阿里云的redis之类的吗? 网络通吗?

你好,目前业务上有一些字典文件需要在mapper或者reducer阶段查询,但是文件大小比较大,大概几百兆甚至几个G的样子,MaxCompute有分布式缓存的方案吗?? 查询的response time一般需要多少时间? 如果大于2G的话,可以用阿里云的redis之类的吗? 网络通吗?

文章 2017-05-02 来自:开发者社区

《Python和HDF 5大数据应用》——2.4 你的第一个HDF5文件

本节书摘来自异步社区《Python和HDF 5大数据应用》一书中的第2章,第2.4节,作者[美]Andrew Collette(科莱特),胡世杰 译,更多章节内容可以访问云栖社区“异步社区”公众号查看。 2.4 你的第一个HDF5文件 在我们研究组和数据集之前,让我们先看一下File对象能做些什么,来作为你进入HDF5世界的起点。 这里有一个最简单的使用HDF5的程序: File对象是你的起点.....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute更多文件相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注