Meta AI开启「解剖大脑」计划,深度学习瓶颈从自然语言突破
【新智元导读】深度学习十年来取得辉煌成就,但其计算、学习效率仍比人类的大脑弱很多。为了突破瓶颈,Meta AI宣布开启一项长期研究计划,以自然语言为切口,比较AI模型和大脑的异同。近几年,随着大规模预训练语言模型的横空出世,让人类终于有了处理、生成、理解自然语言的能力。 虽然模型已经在部分NLP任务上超越了人类的性能,但要说AI在学习、理解语言的能力和效率已经超越了人类,还为时过早。&a...

Meta开发新虚拟背景处理AI,让元宇宙中人像不再虚糊
【新智元导读】为了让广大视频通话用户体验更佳,也让更多AR、VR用户青睐元宇宙,Meta的AI研发团队最近开发了能更好处理虚拟背景的AI模型。自新冠疫情开始以来,大部分人都已经习惯了在和朋友、同事和家人远程视频通话。视频聊天的时候都使用过虚拟背景。用户在视频时变换背景,能赋予其在虚拟影像中掌控身边环境的权利,减少因环境带来的分心,还能保护隐私,甚至还能让用户在视频里看起来更有精气神。但有些时候虚....

最新!OMNI3D:3D目标检测的大型基准和模型(Meta AI)
论文链接:https://arxiv.org/pdf/2207.10660v1.pdf代码链接:https://github.com/facebookresearch/omni3d摘要从单目图像中识别3D场景和物体是计算机视觉的长期目标,在机器人和AR/VR中都有应用。对于2D识别,大型数据集和可扩展解决方案带来了前所未有的进步。在3D中,现有的基准尺寸较小,并且方法专门用于少数目标类别和特定领....

超过 4 名顶尖 AI “元老”离职! Meta 伦敦分部“沦陷”|metaverse 元宇宙股被抛售?
近日,有知情人士和 LinkedIn 分析爆料称,这几个月以来,Meta(前身Facebook)AI 部门至少有 4 名顶尖科学家“元老”离职。这几位成员里,有在世界知名期刊上发表了数十篇学术论文并取得了多项突破的科学家,Meta 正是凭借这些突破才让 Facebook 和 Instagram 不断变强的。超 4 名AI “元老”离职,Meta 伦敦分部“沦陷”据 CNBC 报道,Meta 的竞....

Meta AI 全面开放 1750 亿参数大模型:首次毫无保留公开训练代码及使用代码、日志记录
Meta AI 的 OPT-175B 具有 1750 亿个参数,与 OpenAI 的 GPT-3 等商业语言模型相当。近日,Meta AI 宣布将全面开放 OPT-175B。这意味着大规模语言模型迎来大众化。过去几年以来,大规模语言模型,也就是那些包含 1000 亿以上参数的自然语言处理(NLP)系统,已经改变了整个 NLP 乃至 AI 研究风向。这些模型接受过海量文本素材的训练,已经在生成创意....

Meta的AI让你在元宇宙中可以“语出成真”
你想象过“语出成真”的世界吗?Meta的CEO马克扎克伯格今天在现场活动中展示了一个产品原型,让你在元宇宙中可以通过说出你自己的需求,来构筑你的虚拟世界。这个原型称为 “Builder Bot”,它可能是吸引人们进入Meta元宇宙的“大杀器”,同时也是用AI辅助艺术创作的重大机会。在预先录制的演示视频中,扎克伯格向观众介绍了使用Builder Bot创建虚拟空间的过程,从“带我们去海边”开始,他....

Meta揭幕全球最快AI超算:目标一天之内训练万亿参数大模型
全是英伟达 DGX A100。到今年年中,它将成为全球速度最快的 AI 超级计算机。最近一段时间,超级计算机是科技公司比拼的重点。昨天商汤科技的 AIDC 刚刚启用,今天又传来了脸书超算的消息。当地时间 1 月 24 日,Meta(原 Facebook)揭幕了其研究团队的全新人工智能超级计算机,预计在 2022 年中全部完成后,它将成为世界最快的计算机。在报道文章中,Meta 表示新....

7 Papers & Radios | Meta AI首个多模态自监督算法;牛津、谷歌等撰文综述AutoRL
目录data2vec: A General Framework for Self-supervised Learning in Speech, Vision and Language Explaining in Style: Training a GAN to explain a classifier in StyleSpace Automated Reinforcement Learning ....

别再用平均池化层了!Meta AI把注意力塞到池化层,性能立刻提升0.3(二)
研究人员对模型块的选择也提出了一些建议,例如在batch size够大的情况下,BatchNorm往往效果比LayerNorm更好。但训练大模型或者高分辨率的图像输入时,由于batch size更小,所以BatchNorm在这种情况下就不太实用了。 下一个模块就是基于注意力的池化层了。 在主干模型的输出端,预处理后的向量通过类似Transformer的交叉注意力层(cross....

别再用平均池化层了!Meta AI把注意力塞到池化层,性能立刻提升0.3
Visual Transformer(ViT)作为计算机视觉领域的新兴霸主,已经在各个研究任务中逐渐替换掉了卷积神经网络CNN。 ViT与CNN之间存在着许多不同点,例如ViT的输入是image patch,而非像素;分类任务中,ViT是通过对类标记(class token)进行决策等等。 class token实际上是ViT论文原作者提出,用于整合模型输入信息的token。....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
阿里云机器学习平台PAI
阿里云机器学习PAI(Platform of Artificial Intelligence)面向企业及开发者,提供轻量化、高性价比的云原生机器学习平台,涵盖PAI-iTAG智能标注平台、PAI-Designer(原Studio)可视化建模平台、PAI-DSW云原生交互式建模平台、PAI-DLC云原生AI基础平台、PAI-EAS云原生弹性推理服务平台,支持千亿特征、万亿样本规模加速训练,百余落地场景,全面提升工程效率。
+关注