cherry0 2020-09-23
作者提到基于欧氏距离计算的数据能捕获隐含模式,然而随着应用数量的增加,开始使用graph表示数据,例如,它可以利用用户和商品之间的交互来提高推荐准确率;将化学分子建成graph,生物活性在药物发现中得到鉴定;在引言网络中,通过引用关系建立文章之间的联系,将他们分成不同的类别。然而graph与图像不同,节点无序、尺寸不一、邻居节点数量变化,这增加了graph的计算难度。此外ML算法是基于样本独立性假设的,与graph的构建机理矛盾。
?发展历史
1、递归图神经网络(RecGNNs) 1997年起,以迭代的方式并通过传递邻居节点信息来学习目标节点表示,直到稳定点。此类方法计算复杂度高,一些研究者研究如何降低复杂度。如,“Gated graphsequence neural networks,ICLR2015”,“Learning steadystates of iterative algorithms over graphs,ICML2018”.
2、卷积图神经网络(ConvGNNs)分为基于谱方法(最早2013)和基于空间方法(最早2009)
3、图自编码(GAEs)
4、时空图神经网络(STGNNs)
?图嵌入 vs. 网络嵌入
主要区别:GNN是一组神经网络模型来处理不同任务,网络嵌入涵盖了针对同一任务的各种方法。通过图自编码器框架GNNs能够处理网络嵌入问题。
graph embedding :以端到端的方式处理图关系任务,抽取高阶表示
network embedding: 低维向量表示网络节点,同时保持网络拓扑结构和节点内容信息。因此,任何后续的图形分析任务,如分类、聚类和推荐,都可以使用简单的现成的机器学习算法轻松地执行。网络嵌入还包含非深度学习方法,如矩阵分解和随机游走。
?图神经网络 vs. 图内核方法
图内核:是解决图分类问题主要技术。使用核函数度量图对之间的相似度,如svm。通过映射函数将图和节点映射到向量空间。采用两两对相似度计算,计算复杂度高
图神经网路:直接根据抽取的图表征执行图分类,比图核方法更有效。通过映射函数将图和节点映射到向量空间。