文章 2023-05-18 来自:开发者社区

牛啊,几乎涵盖了图神经网络所有操作

前言前几年神经网络很火,相信大家对神经网络都有一定的了解。而图神经网络是直接在图上进行计算,整个计算的过程,沿着图的结构进行,这样处理的好处是能够很好的保留图的结构信息。而能够对结构信息进行学习,正是图神经网络的能力所在。下面我们就来看看图神经网络为什么强大?图神经网络的应用场景自然非常多样。笔者在这里选择一部分应用场景为大家做简要的介绍,更多的还是期待我们共同发现和探索。正文1. 计算机视觉在....

文章 2023-05-18 来自:开发者社区

有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA

机器之心编辑部蒙特利尔算法学习人工智能实验室(Mila)和微软亚洲研究院等单位提出文本图训练框架 GLEM [1],能够有效融合语言模型和图神经网络,取得 OGB 3 个数据集第一名。主要单位:蒙特利尔算法学习人工智能实验室(Mila)、微软亚洲研究院等论文地址:https://arxiv.org/abs/2210.14709代码地址:https://github.com/andyjzhao/g....

有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA
文章 2023-05-17 来自:开发者社区

一种基于广义模板的图神经网络,用于准确的有机反应性预测

化学反应性的可靠预测仍属于知识渊博的合成化学家。通过使用人工智能使这一过程自动化可以加速未来数字实验室的合成设计。虽然几种机器学习方法已显示出可喜的结果,但大多数当前模型都偏离了人类化学家基于电子变化分析和预测反应的方式。在这里,韩国科学技术院(KAIST)的研究人员提出了一种化学驱动的图神经网络,称为 LocalTransform,它基于广义反应模板学习有机反应性,以描述反应物和产物之间电子配....

一种基于广义模板的图神经网络,用于准确的有机反应性预测
文章 2023-05-16 来自:开发者社区

图神经网络发Nature子刊,却被爆比普通算法慢104倍,质疑者:灌水新高度?

GNN 是近年来非常火的一个领域。最近,一篇 Nature 子刊论文提出了一种用 GNN 解决组合优化问题的方法,并声称该 GNN 优化器的性能与现有的求解器相当,甚至超过了现有的求解器。不过,这篇论文引来了一些质疑:有人指出,这个 GNN 的性能其实还不如经典的贪心算法,而且速度还比贪心算法慢得多(对于有一百万个变量的问题,贪心算法比 GNN 快 104 倍)。所以质疑者表示,「我们看不出有什....

图神经网络发Nature子刊,却被爆比普通算法慢104倍,质疑者:灌水新高度?
文章 2023-05-16 来自:开发者社区

图神经网络作CV骨干模型,来听听华为诺亚是怎么做的

在计算机视觉领域,骨干网络一直是特征提取的重要部件。从 AlexNet 到 ResNet,卷积网络 CNN 在很长一段时间内一直是视觉任务的标配。近年来,基于注意力机制的 Transformer 和以全连接层为主的 MLP 网络也开始在计算机视觉领域崭露头角。与现有主流 CNN 模型相比,基于 Transformer 或 MLP 的模型在视觉任务上也显示出了良好的性能。直到现在,关于谁是更好的视....

文章 2023-05-16 来自:开发者社区

ICML 2022 | 基于结构化数据的异常检测再思考: 我们究竟需要怎样的图神经网络?

图神经网络(GNN)被广泛应用于结构化数据的异常检测,例如社交网络恶意账号检测、金融交易欺诈检测等。香港科技大学和斯坦福大学的研究者首次从谱域的角度(即图拉普拉斯矩阵的谱分解)分析了异常数据可能造成的影响。核心发现是:异常数据将导致频谱能量出现 “右移” 现象,即频谱能量分布从低频向高频移动。基于这一发现,他们又提出了 Beta 小波图神经网络(BWGNN)。它拥有多个具有局部性的带通滤波器,能....

ICML 2022 | 基于结构化数据的异常检测再思考: 我们究竟需要怎样的图神经网络?
文章 2023-05-16 来自:开发者社区

亚马逊团队使用受物理启发的图神经网络,解决组合优化等问题

组合优化问题在科学和工业中普遍存在。现代深度学习工具已准备好以前所未有的规模解决这些问题,但结合统计物理学见解的统一框架仍然很出色。这里,亚马逊量子解决方案实验室的研究人员,展示了如何使用图神经网络来解决组合优化问题。他们的方法广泛适用于以二次无约束二元优化问题形式出现的规范 NP 难问题,如最大割集、最小顶点覆盖、最大独立集,以及以多项式无约束二元优化问题形式出现的 Ising spin gl....

亚马逊团队使用受物理启发的图神经网络,解决组合优化等问题
文章 2023-05-15 来自:开发者社区

上海交通大学王宇光:几何深度学习和图神经网络的研究进展和趋势

以下为王宇光在机器之心 AI 科技年会上的演讲内容,机器之心进行了不改变原意的编辑、整理:大家下午好,我是上海交大自然科学研究院的王宇光。今天主要给大家介绍一下几何深度学习和图神经网络的研究进展,以及未来的技术趋势。我们知道几何深度学习是用于处理不同对象的深度神经网络,其结构和传统 CNN 相似,只是处理的对象发生了变化。传统 CNN 处理的可能是图片数据,在数学上是由格点像素值组成的平面 2D....

上海交通大学王宇光:几何深度学习和图神经网络的研究进展和趋势
文章 2023-05-15 来自:开发者社区

图神经网络的困境,用微分几何和代数拓扑解决

微分几何和代数拓扑在主流机器学习中并不常见。在本系列文章中,作者展示了如何使用这些领域的工具重新解释图神经网络并解决一些常见困境。 本文的作者是 Twitter 首席科学家、DeepMind 人工智能教授 Michael Bronstein。以下是博客原文。对称,无论从广义还是狭义的角度讲,都是人类一直以来试图理解和创造秩序与美的一种观念。——Hermann WeylHermann We...

图神经网络的困境,用微分几何和代数拓扑解决
文章 2023-05-11 来自:开发者社区

【Pytorch神经网络实战案例】22 基于Cora数据集实现图注意力神经网络GAT的论文分类

注意力机制的特点是,它的输入向量长度可变,通过将注意力集中在最相关的部分来做出决定。注意力机制结合RNN或者CNN的方法。1 实战描述【主要目的:将注意力机制用在图神经网络中,完成图注意力神经网络的结构和搭建】1.1 实现目的有一个记录论文信息的数据集,数据集里面含有每一篇论文的关键词以及分类信息,同时还有论文间互相引用的信息。搭建AI模型,对数据集中的论文信息进行分析,使模型学习已有论文的分类....

【Pytorch神经网络实战案例】22 基于Cora数据集实现图注意力神经网络GAT的论文分类

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。