AI新贵上位 图网络是怎么火起来的?

亿欧网 中字

谁是2018年AI圈最靓的仔?

这顶“桂冠”只有两位候选人:俗话说,前端能打看BERT,底层深度看图网络。其实并没有这句俗话……但是BERT和图网络在今天的AI界并驾齐驱,堪称被讨论最多的两种技术,这一点是毫无疑问的。谷歌的BERT作为一种算法模型,在语言任务上展现出了不讲道理的应用效果,熠熠夺目自然很容易理解。

但另一个最近大家听到很多次的词,图网络,可能就没那么容易理解了。相比某种算法,图网络更像是一个学术思考下若干种技术解决思路的集合,非常抽象和底层。它的价值到底在哪?为什么甚至能被抬高到“深度学习的救星”这种程度?我们发现,目前关于图网络的解释,大多都是从论文出发。非技术背景的读者可能会看得有点晕。所以这里想用一些“大白话”,来描述一下:风口浪尖上的图网络,究竟有什么秘密?

想让自己在AI圈潮酷起来吗?聊Graph和GNN吧

所谓图网络,并不是指有图片的网站……而是指基于图(Graph)数据进行工作的神经网络。

Graph,翻译成“图”,或者“图谱”。这是一个数学概念,指由顶点(nodes)和边(edges)构成的一种数学关系。后来这个概念引申到了计算机科学中,成为了一种重要的数据形式,用来表示单元间相互有联系的数据网络。此外,这个概念还引申到了生物学、社会科学和历史学等无数学科,甚至变成了我们生活中的常见概念。在警匪片里,警局或者侦探办公室的墙上,往往挂着罪犯的关系网络图,这大概是我们生活中最常见的Graph。

回到计算机科学领域,图数据和基于图的分析,广泛应用于各种分类、链路、聚类任务里。人工智能领域有个重要的分支,叫做知识图谱。基本逻辑就是将知识进行Graph化,从而在我们寻找知识时,可以依据图谱关系进行追踪和定位。比如我们在搜索引擎中搜某个名人时,相关推荐会跳出来跟这个人字面意义上无关的其他人。这就是知识图谱在起作用。

那么图网络是怎么搞出来的呢?

大家可能知道这样一个“唱衰AI”的小故事:用机器视觉技术,AI今天可以很轻松识别出来一张照片上的几张人脸。但它无法像真人一样,一眼看出来图上是朋友、恋人还是家庭聚会。换句话说,一般意义上AI无法获得和增强用人类常识去进行逻辑推理的能力。很多人以此判断,今天的AI并不怎么智能。

AI科学家们琢磨了一下,表示这事儿有办法搞定。如果把图/图谱作为AI的一部分,将深度学习带来的学习能力,和图谱代表的逻辑关系结合起来,是不是就好很多?

事实上,Graph+Deeplearning并不是一个全新概念。最早在2009年,就有研究提出了二者的结合。近几年这个领域陆续在有研究出来。对于这个组合产物,学术界有人称之为图卷积网络(GCN),也有人称呼其为图神经网络(GNN)或者图网络(GN,Graph Networks),其技术内涵和命名思路也各不相同。这里暂且使用图网络这个笼统称呼。

图网络作为一种新的AI研究思路,之所以能够在2018年被点燃,很大程度还是号称AI扛把子的DeepMind的功劳。在火种抛出、全球跟进以及反复争论之后,图网络变成了AI学术圈最靓仔的那个关键词。今天大有一种,聊深度学习不说图网络就很low的感觉……

从识别小能手到推理专家:AI新贵求职记

有种论调是这么说的:深度学习已死,图网络才是未来。这句话怎么琢磨都有问题。因为从图网络在去年被“翻新”出来那一刻,它在本质上还是对流行的多层神经网络的一种补充。让我们来打个比方,看一下跟传统深度学习相比,图网络应该是如何工作的。

举个例子,假如我们想让教育我们的孩子,让他认识新来的邻居一家人。我们应该怎么办呢?可以选择给他讲,隔壁新来了某个小朋友,他爸爸是谁妈妈是谁。但是这样不直观,孩子很容易记不住。而更快的方式或许是拿着照片给他看,告诉他照片上的人都是什么关系。而在这个工作之前,其实我们已经完成了一个先觉条件:我们已经告诉过孩子,爸爸妈妈爷爷奶奶这些称呼,分别指代的是什么意思。他理解这些“边”,然后再代入新邻居一家人具体的样貌性格交谈作为“顶点”,最终构成了对邻居一家这个“图”的网络化认识。

而我们在用深度学习教导AI时,往往是省略掉第一步。直接给出大量照片和语音文字资料进行训练,强迫AI去“记住”这一家人的关系。然而在AI缺乏对家庭关系的基本常识情况下,它到底能不能记住,是怎么记住的,会不会出现偏差,其实我们都是不知道的。

某种程度上,这就是深度学习的黑箱性来源之一。

所以图网络的思路是,首先让AI构建一个“图”数据,先理解爸爸妈妈这一类关系的含义,再去学习具体的家庭数据。这样AI就可以依靠已经积累的节点间的消息传递性,来自己推理下一个要认识的家庭究竟谁是爸爸谁是儿子。这也就意味着,图网络某种程度上有了自己推理的能力。如果将这种能力推而广之,AI就将可能在非常复杂的联系和推理中完成智能工作。

前面说了,这个领域的工作其实一直没有停止。但是之所以没有广泛流行,一方面是因为这个领域相对小众,缺少重磅研究来引发大家的关注;另一方面也是因为看不见摸不着,缺少开源模型来检验理论的正误。

去年6月,DeepMind联合谷歌大脑、麻省理工等机构的27位学者,共同发表了关于图网络的论文《Relational inductive biases, deep learning, and graph networks.》,接着开源了相关的算法包GraphNet。这篇文章中,DeepMind不仅提出了新的算法模型,希望能用图网络实现端到端的学习;同时也总结归纳了此前图网络各个流派的研究方法,并将其在新算法上进行了融合。

在这个有点承上启下意味的研究出来后,大量关于图网络的综述、应用检验,以及新算法的探讨开始在学术界萌生。随着全球AI圈的共同发力,这门AI技术新贵正在尝试走向台前。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存