奥多码,点击查看详情 97CDN云盾,点击查看详情

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

aixiv专栏是本站发布学术、技术内容的栏目。过去数年,本站aixiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想) \ n z e m } &要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixinf Y G.com

多年来,浙江大学周晟老师团队与阿里安全交互内容安全团队持续开展产学研合作。近日,双⽅针对标签噪声下图F & E { 8神经⽹络的联g z 2 C h I D ; K合研究成果《NoisyGL:标签8 6 q噪声下图神经网络的综合基准》被 NeurIPS Datasets and Benchmarks Track 2024 收录。本次 NeurIPS D&B Track 共收到 1820 篇投稿,录⽤率为 25.3%。

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

  • w 3 – Q @ c v文标题:NoisyGL: A Comprehe* M d 4 p q onsive Benchmark for Graphz f I H N D s H Neural Networks under Label Noise

  • 论文地址:htI $ N 3 ) N +tps://ar? [ i F – / P \ exiv.org/pdf/2406.04299

  • 项目地址:https://github.com/eaglelab-zju/NoisyGL

图神经网络(GNNs)在节点分类任务中通过消息传递机制展现了强大的表示力。然而,它们的性能往往依赖于⾼质量的节点标签。在现实世界中,由于不可靠的来源或对抗性攻击,节点标签中通常存在噪声。不过,目前针对该领域缺乏⼀个综合的基准。
为填补这⼀空白,本文提出了 N7 Y =oisyGL 方法,这是第⼀个针对标签噪声下图神经⽹络的综合基准。NoisyGL 使⽤\ h b _ T R w s统⼀的实验设置和接⼝,可以在具有不同性质的图数据上对不同⽅法的抗噪性能进⾏公平比较和多⻆度分析。# c % ) } 8 [ 2此外,NoisyGL 也是⼀个可扩展且易于使⽤的 GLN 框架,便于后续的研究者跟进。
本⽂亮点包括如下:
  • 提出了 NoisyGL,第⼀个针对标签噪声下的图神经⽹络的综合基准库。
  • 通过⼤量的实验,针对标签噪声下的图神经⽹络提出了⼀些重要的见解。
  • 为标签噪声下的图神经⽹络提供了⼏点未来的发展⽅向。
⼀、研究背景
许多现实世界中的复杂系统可以表示为图结构数据,包括引⽂网络、⽣物网络、交通网络和社交网络。图t i E X : A神经网络(GNNsv * R \ I [)通过消息传递? ~ * W # \ +机制(MX b J | Z M / Sessage passing mechanism)聚合邻域节点的信息,在建模图数据方⾯表现出了显著的优势。在 GNNs 的众多应⽤中,节点分类是研究最为深入的任务之⼀。通常在节点分类任务中,GNNs 以半监督的模式进⾏训练。
尽管图神经网络取得了成功,但% t U L u它们在半监督图学习任务中的表现高度依赖于精确的节点标签,而在现N i + ) E 7 3 #实世界中,精确的标签很难获得。例如,对于在线社交⽹络,手动标记数百万⽤户的过程成本o & X P h B _ } [⾼昂,因此⽤户的标签通常依赖于⽤户⾃⼰的标注,这些标注通常是不可靠的。
此外,图数据容易受到对抗性标签翻转攻击的影响。因此,标签噪声在图数据中普遍存在。研究表明,标签噪声会显著降低机器学习模型在计算机视觉和自然语⾔处理场景中的泛化能力。在 Gw $ #NNs 中,. . 7 b g消息传递机制可能会通过传播错误的监督信息,从而进⼀步加剧这种负⾯s u ,影响。
为了在带标签噪声的图数据上实现稳健学习,⼀个直观的解决方案是借鉴以往标签噪声学习(LLN)策略的成功经验,并将其应⽤于图神经网络。然而,由于图数据并不具有独立同分布性质、节点标签的稀疏性以及 GNNs 的消息传递机制,这些 LLN 方法并不总是适⽤于图学习任务。在这个背景下,标签噪声下的图神经⽹络(GNNs under Label Noise, GE = = # L \ _ lLN)研究最近受到了关注。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
然而,由于] B H c V数据集选择、数据分割和预处理技术的差异,⽬前 GLN 领域缺乏⼀1 i c & ^个综合的基准,这阻碍了对该领域的深⼊理解和进⼀步发展。
⼆、论文摘要
图神经网络(GNNs)通过消息传递机制在节点分类任务中表现出强大的潜力。然而,它们的性能往往依赖于⾼质量的节点标签。在现实任务中,由于不可靠的来源或对抗性攻击,准确的节点标( / t 1签很难获得。因此,标签噪声在现实世界的图数据中很常见。噪声标签会在训练过程中传播错误信息,从而对 GNNs 产生负⾯影响。
为了解决这个问题,标签噪声下的图神经网络(GNNs under Label Noise, GLN)的研究* C y 2 2 z * T !最近受到了关注。然而,由于数据集选择、数据划分和预处理# Q p I技术的差异,社区⽬前缺乏⼀个全面的基准,这阻碍了对 GLN 的深入理解和进⼀步发展。q M O F } z为填补这⼀空⽩,我们在本⽂中介绍了 NoisyGL,这是第⼀个针对标签噪声下图神经网B b 8 } I { * .络的全⾯基准。NoisyGL 在各种数据集上,通过统⼀的实验设置和接口,实现了对( q h f x W 3 e 0 GLN 方法的公平比较和详细分析。我们的基准揭示了之前研究中遗漏的几个重要⻅解,相信这些发现对未来的研究将非常有益。同时也希望我们的开源基准库 NoisyGL 能促进该领域的进⼀步发展。
三、方案解读
1、问题定义
考虑⼀个图NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源,其中 V 是包含所有 N个节点的集合,NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源是边的集合。NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源是邻接矩阵,NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源表示节点特征矩阵,特征的维度为 d 。每个节点都有⼀个真实标签,真实标签集合表示为NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
在这项\ e k r g ( *[ \ P \ : 9作中,我们关注半监督节点分类问题,其中只有⼀小部分节点w , p } ;NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源被分配了⽤于训练过程的标签,这部分标签表示为NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源,其中NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源是有标签节v ~ w – 5 [ ~ f 6点的数量。其余的则是无标签节点,表示为NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源。给定= 2 A Y / ( P O G X 和 A ,节点分类的⽬标是通过最小化NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源来训练⼀个分类器NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源,其中 c 是类别数量,NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源是衡量预测标签与真实标签d [ *之间差异的损失函数。NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源通常是⼀i : L _ A X f g个设计良好的图神经网络。通过这种方式,根据经验风险最小化(Empirical Risk Minimization, ERM)原则,训练良好的节点分类器可以在未⻅数据NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源上实现泛化。
然而,在现实世界中,可访问的标签NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源可能会受到标签噪声的污染,从而降低图片的泛化能力。我们将噪声标签表示为NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源图片即为其对应的真实标签。
通常,我们考虑两种类型的标签噪声,以下是它们的定义:
  • 均匀噪声(Uniform Noise)或对Z ) l 4 .称噪声F : Q假设真实标签有NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源的概率均匀地翻转到其他所有的类别。形+ T b @ W & 9 \ =式上,对于NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源,我们有NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源,其中 c 表示类别数量。
  • _ Q E t I d z O偶噪声(Pair Noise)或对偶翻转、g 4 J K ] T g f⾮对称噪声:假设真实标签只能以概率 翻转到其对应的对偶类别,而不会翻转到其他任何类别。
需要注意的是,这些噪声模型假设转移概率仅依赖于观察到的标签和真实标签k 9 K E w g Z,即与实例特征无关。而在现实世界中,标签噪声可能更加复杂。在这项工作中,我们关注最以上两种常用的噪声类型,将其他噪声类型留给未来的研究。
在每次实验中,我们⾸先根据给定的噪声率和噪声C W M A 0 $ P 9定义⽣成⼀个标签转移概率矩阵。然后,对于每⼀个训练集和验证集I + h中的⼲净标签~ n [,我们根} A C ] = & d据其对应的转移概率从 Categorical distribution 中抽取⼀个噪声标签。这些噪声标签将用于后续的训练过程。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
2、数据集选择
我们选择了 8 个节点分类数据集,这些数据集在不同的图标签噪声研究中被⼴泛使⽤。这些选定的数据集来⾃不同领域,具有不同的特征,使我们能够评估现有⽅法在各种场景中的泛化能力N i V /
具体来说,我们使用了三个经典的引⽂M # 0 X H⽹络数据集 Cora、Citeseer、Pubmed,以及⼀个作者合作网络数据集 DBLP,还有两个代表性的u L ! l \ F产品共购网络数据集 Amazon- Computers 和 Amazon-Photo。此外,为了验证各种方法在异质图上的性能,我们使O L @ W用了两个代表? 4 o m i L性的社交网络数据集 BlogCatalog 和 Flickr。对于每⼀种数据集,我们为其适配最为常用的训练 – 测试 – 验证集划分方法,以确保对各种方法进行公平比较。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
3、方法选择
我们选择了⼀系列最先进的 GLN 算法,包括 NRGNN、RTGNQ t q BN、CP= ? X r K $、D-G/ Z J O pNN、 RCNGLN、CLNode、PIGNN、Unios 1 C u q I B !nNET、CGNN 和 CRGNN;以及⼀组设计良好的 LLN 方法,包括两种损失修D l $ Z b B M正方法 Forward Corre S | , j a / vection 和 Backward Correction、两种稳健损失函数 APL 和 SCE、两种多网络x \ I u V \ 9 )学习方法 Coteaching 和 JoCoR& i 8 4,以及⼀种噪声适应层方法 S- model。并根据它们的论⽂和源代码严格地复现了所有⽅法。
4、期望研究的问题
在这项工作中,我们旨在回答以下问题:
RQ1:LLN ⽅法能否直接应⽤于图学习任务?
动机:尽管最近的研究表明,直接将传统的标签噪声下的学习(L] W r $ ( g learning with Label Noise, LLN)⽅法应用于图学习任务可能不会产⽣最佳结果,但⽬前对这⼀问题仍然缺乏o ~ : * \ R o全⾯的分析。因此,我们希望调查现有 LLN ⽅法对图学/ $ s $ ! i T习的适⽤性并理解其背后的原因。通过研究这个问题,我们可以更清楚地了解图标签噪声带来的独特挑战,并确定哪些 LLN 技术在图学习环境中仍然有效。
实验设计:我们选择了在前文中提到的 7 种 L+ d \LN 方法,并以 GCN 作为骨干模型实现这6 F # k * e些方法。然后,我们在八种具有不同性质的数据集上进行节点分类实验,评估它们在不9 ` 5 U \同类型和水平的标签噪声下+ C _ E Z的有效性。对于每种方法和数据集,我们记录了 10 次运⾏的平均准确率指标和标准差。通过比较这些 LLN 方法的性能,我们可以确定额外的 LLN 方法是否增强了骨干 GCN 模型的稳健性。
RQ2: 现有的 GLN 方法取得了多大进展?
动机:尽管先前的研究提出了许多 GLN 方法,但它们使⽤了不同的数据集、数据划分和预处理技术,使得我们难以公` f { 7 r / i z }平⽐较这\ W i O U P 9 A –些⽅法的性能。此_ Q U q 1 O P外,我们注意到⼤多k r R e ] a数现有⽅法是在同质图上进⾏评估的,这引发了Y l M q |它们在异质图上适⽤性的担忧,⽽异质图在实际中也很常⻅。通过研究这个问题,我们希望确定当前_ ( 8 :的 GLN ⽅法是否有效地解决了图标签噪声问题,并找出它们的不⾜之处。
实验设计:我们实现了前⽂中描述的 10 种先进的 GLN ⽅法,然后使⽤ 8 个具有不同性质的数据集和统⼀的实验设置评估这些⽅法的性能。对于每种e a a o z 7⽅法和数据集,记录了 10 次运⾏的平均] s 1 2 e ! D测试准确率和标准差。由于这些 G: k : ~ g z 5 o ;LN ⽅法多数基于z d y H V a . a GCN,我们在这些⽅法的代码实现中调⽤⼀个统⼀的 GCN ⻣⼲模型,以公平地评估它们对标签噪声的稳健性。
RQ3: 现有的 GLN ⽅法计算效率如何?
动机:GLN 的计算效率对于其在现实世界中的应⽤至关重要,⽽考虑标签噪声可\ @ ` 4 c K –能会导致更⾼的计算开销。尽管先前的研究深入探` U } P @讨了 GLN 方法x * ) g 3 D ]的准确性、泛化能⼒和稳健性,但却忽略了对这些方法计算效率的研究。
实验设计:我们记录了在 30% 均匀噪声下各种方法在不同数据集上的运⾏时间和测试准确率。具体来说,对于每种方3 j ; \ d法在每个数据集上进行了 10 次实验。在每次实验中测量模型在验证集上达到最佳准确率时的时间,并将其视为该⽅法的总运行时间。通过这些实验可以评估 GLN 方法在计算效率和b u * v z } P测试准确率之间是否达到了平衡。
RQ4:现有的 GLN ⽅3 L Q g % V v法对噪声率敏感吗?
动机:之前的研究使用了不同的标^ ) E : S X签噪声率,这使得我们难以横向比较各种方法的性能。因此,有必要使用⼀组⼀致的噪声率来验证现有的 GLN 方法是否在不同噪声水平下保持稳定的性能。
实验设计:我们在相同的数据集和噪声类型下评估几种 GLN 方法在不同噪声水平下的性能。具体来说,引入了 10%、20%、30%、40%P b 6 8 F 和 50% 的标签噪声,并使⽤干净标签作为基线。随后,按j R 6 ? H照 RQ2 中描述的实验设置在这些数据集上训练并评估 GLN 方( 3 ` w j ) .法。
RQ5:现有的 GLN ⽅法对不同类型的标签噪声下表现如何?
动机:现有的 GLN 方法是基于各种技术和假设开发的,因此在处理不同类型的噪声时,它们具有独d \ ? A ] *特的优势和劣势。此外,确定哪种类型的噪声对图学习v # R | } 3 – )最具破坏性并理解其背后的原因是至关重要的。解决这个问题将有助! M s v于我们更好地理解每种方法的具体适⽤场景以及不同类型标签噪声的独特特性。
实验设计:我们保持 30% 的噪声率不变,并对标签应⽤均匀噪声和对偶噪声。随后,按照RQ2 中描述的实验设置在这些噪声数据集上训练并评估 GLN 方法。
RQ6:好还是坏?重r S O % v g新审9 9 f视图结构在标签噪w k 9 j ~ @ m +声中的作⽤。
动机:p d ) c r V 2 A外的图结构区分了图数据和其他类型的⾮ i.i.d. 数据。而图神经⽹络的成功在很大程度上依赖于消息传递机制,n v N Y o k f = –该机制从图结构上的邻域节点聚合信息。] v Q 6 a然而,在存在标签噪声的情况下,沿着边传播的消息可能有双重效果:⼀方面,标签噪声通过传播错误信息对图学习产生负⾯影响;另⼀⽅⾯,2 ~ y f | b = 1 @它也可能通过与邻居中的多数标签对⻬R V p 5 e l B来缓解这种影响。因此,至关重要的是研究额外的图结构是否会放⼤标签噪声的影响,以及现有的⽅法是否能有效解决这⼀挑战。
实验设计:我们对全部十八种方法进⾏了全面的实验,包括⼀个 GCN 基线、七种 LLN 方法和十种 GLN 方法,旨在明确图结构在标签噪声存在的情况下如何影响图学习。具体来说,我们记录了以下几个指标,包括在 30% 均匀噪声下的正确标记的训练节点的预测准确率(ACLT)、错误标记的6 ] U y D s y r训练节点的预测准确率(AILT)、正确监督的未标记节点的预测准确率(AUCS)、未监督的未标记节点的预; F w X测准确率(AUU)和错误监督的未标记节点的预测准确率(AUIS)。这⾥,「正确监督」、「错误监督」和「未监督」分别指的是在未标注节点的邻域中有正确标记的训练节点、错误标记的训练节点以及没有标记节点的未标记节点。
四、W x 2实验结果及分析
结论 1:大多数 LLX l N 9 b H I ;N 方法并未显著提高 GNN 对标签噪声的稳健性(RQ1)。
实验结果显示,存在标签噪声的& } u _ 4 C ~ J L情况下,大多数选定的 LLN 方法并未显著提⾼ GNN 骨干的性能。大多数情况下,这些 LLN 方法的性能在统计上与基线) b 5相似。在某些情况下,应⽤额外的 LLN ⽅法甚至可能会导致更差的结果。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
三种包含噪声转移矩阵的 LLN 方法 S-2 ? U +model、Forward Correction 和 BH q ]ackwa\ ~ { 0rd Correction,在大多数情况下表现与基线相似。通常,这些基于转移矩阵的方法学习到的是对⻆转移矩阵,这表明由于标签的稀缺,它们未能学习正确的标签转移模式。h = K P c [多网络学习方法 Coteaching 和 JoCoR 在稀疏图上表Z [ : ) d –现与基线相似,但在密集图上表现不佳。值得注意的是,我们发R 6 } & / 8 }现两种稳健损失函数,主动被动损失(APL)和对称交叉熵(SCE),在⼀些数据集上略微增强了基线模型的稳健性。这种改进可能是由于它们能够减少对错误标记样本的过拟合,而它y \ D 1 i 0 ~ Z [们的独⽴同分布假设% p _则限制了这种改进的幅度。因此得出结论{ G y z –,仅仅将 LLN 方法应w s )用于 GNN 并不能实现对标签噪声稳健的图学习解决⽅案。
结论 2:现有的 GLN ⽅法在⼤多数情况下可以缓解标签噪声,但这种改进仅限于特定的适⽤场景(Rh { b #Q2)
对于每个数据集,总有⾄少⼀种 GLN 方法的抗噪] I 8 1 u b B能力优于h V 2 4 a 8 [ W u基线 GCN,这表明这些 GLN 方法在i w R W j ; . s缓解图标签噪声问题上是有P ) ] # ] /效的。然⽽,M Z H I 6 $ 3没有⼀种方法能在所有数据集中始终表现良好。例如,NRGNN 在 Cora、Citeseer 和 DBLP 数据集中显著优于基线 GCN,但在其他数据集中则不然。这⼀结果表明,4 f | !现有的 GLN 方法缺乏在不同类型数据中泛化的能力。此外,我们观察到在 Flickr 数据集中,所有 GLN 方法的表A V 0 9 5 ? d n现都不如基线,这突显了它们在处理⾼度异质图⽅⾯的不⾜。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
结论 3:⼀些 GLN 方法的计算效率不高(RQ3)
尽管多种 GLN 方法在减少标签噪声方面有效,但通常需要大量计算资源。实验结果表明,⼀些 GLN 方法在性能与计算效率之间难以平衡。例如,在 Cora 数据集上,RNCGLN 是最慢的,比 GCN 慢 66.c Y *8 倍,而在 DBLP 数据集上更是慢了惊人的 2945.8 倍。而在另⼀⽅⾯,虽然 NRGA : +NN 方法也比 GCN 消耗更多时间$ . O,但它在两个数据集上实现了性能与计算效率之间的合理平衡。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
结论 4:大多数 GLN 方法在严重噪声下无法保证高性能(RQ4)
在通常情况下,随着噪声水平的增加,每种方法的测试准确率都会下降。这种下降在对偶噪声中最为显著,在 50% 对偶噪声下,所有方法的测试准确率⼏乎减半。此外,我们注意| A $ u J T到在所有数据集上 RTGNN 在均匀噪声下表现相对稳定,并且 NRq y #GNN 和 PIGNN 两种方法在不同噪声水平和类型下,在 DBLP 数据集上的表现优L l } g %于基线 GCN。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
r * k论 5:对图学习来说,对偶噪声更具危害性(RQ5)
在实验中,我们观察到对偶噪声对模型的泛化能力构@ y 2 , O { L k成了最显著的威胁。我们对此发现有⼀个解释:回顾在前文中提供的定义。对于均匀噪声,真实标签有可能翻转到任何其他类别,这可能由于被h w *错误标注的节点导致的不正确参数更新可以被其他T ] 7 { t错误标注的节点部分抵消。然⽽,对偶噪声将翻转类别限制为特定的对偶类别。对于分类器来说,这3 . ^ S 9种类型的对偶翻转可能更具误导性。在完全训M G * H Q F练后,分类器更有可能过拟合这些对偶标签,从而作出对偶类别的预测。当节点特征通过消息传递机制传播时,这种情况尤其有害,这可能导致局部邻域内的嵌⼊更加相似,从⽽使得它们更有可能被错? 6 \ .误分类到相应的对偶类别。
为了验证该假设,我们进行了实证研究。具体来说,我们记录了在 50% 对偶和均匀噪声下 GCN 在五个数据集上的误导性训练准确率。这⾥的误导性训练准确率(AILMT)代表模型在对错误分类的类别做出错误预测时的准确率,可以体现模型的过拟合程度。实验结果清楚地表明,对偶噪声的对模型泛化能力的影响最大,更可N * r X D能导致模型模型过拟合到错误的标签上。同样的情况也发⽣在其他 LLN 和 GLN 方法中。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
结论 6:图结构可以放大标签噪声的负面影响(RQ6)
从实验结果来看,s J r G 8 F我们观察到在稀疏图(Co+ Q h wra)中,AUIS 和 AUU2 @ h 5 x 相较q – 4 8k _ m AUCS 显著下降。以 GCN 在 Cora 数据集上的表现为例,这种下降分别为 36.17% 和 10.85%。这些结果突显了邻居节点通过正确的标签V w k a A对未标注节点进行正确监督对 GNN 的学习过程⾄关重要。被正确标注的邻域节点提供的正确监督显著提⾼了未标: ` o记节点的分类准确率,而标签噪声造成的错误监督则严重降低了这些节点的分类准确率,甚至比不进$ + / N H 1 @⾏邻域监督时更糟。
此外,我们的研究还揭示了图结构增强方法在减轻标V 2 } ? \ t 5 g C签噪声传播效应⽅⾯的有效性。具体来说,基于图结构增强的三种方法,即 NRGNN、RTGNN 和 RNCGLN,在所有方法中的 AUIS 相较于 AUCS 和 AUU 表现出了最小的下降。这表明它们可以有效减轻标签噪声的传播效应。这种现象在像 Cora 这样c J _ = )的稀疏图中更加明显。⼀个可能的解释是它们采用的额外图结构学习技术可以在采样过程中形成⽤于预测^ F g的更密集的图结构。因此,分类器可以获得更多来/ Z 5 A w : V n W⾃邻域节点的参考,从⽽减少对邻域错误标记样本的依赖。
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
结论 7:稀疏图更容易受到标签噪声传播效应的影响(RQ6)

从 Table 2 中可以看出,标签噪声的传播效应在平均度较低的稀疏图(如 Cora、 Citeseer、Pubmed 和 DBLP)上非常严重,但在密集图(如 Amazon-Computers、 Amazon-Photos、Blogcatalog 和 Flickr)上则不明显v 7 @ ] j o )/ w : . + S s l L对此现象的解释是:稀疏图上的未标记节点在其邻域中通常只有有限数量的标注节点可用于监督,所以4 5 k I B b % [这些未标注节点的预测结果在很大程度上依赖于其邻域中有限的标注节点,如果这2 – R ) m ( R i e些节点被错误标注,则很容易导致未标注节点表示的错误学习。相比之下,对于密集图,未标注节点的邻域包含许多可以作为参考的标注节点。

因此,分类器模型更有可能从这些标E e O [ X V t注节点中找到正确的监督。这⼀假设得到了 Table 1 中实验结果的进⼀步⽀持,我们观察到,与稀V B o J [ . l \ z疏图(如 Cora、Citeseer 和 Pubmed)相⽐,GCN 在具有⾼平均节点度的密集图(如 Blogcatalog 和 Amazon-Computers)上更不容易产⽣过拟合。
五、实践落地与持续研究
本文提出的针对标签噪声下图神经⽹络的综合基准,可帮助阿里相关团队更精准地评估图相关技术在S O S A落地时的整体风险数据,并⾼效推进后续相关的算法落地和应用。最后,我们z h | w 4 @ {也为该领域未来的研究提供了⼀V : z 9些思路:
  • 设计广泛适用的 GLN 方法。⼤多数现有的 GLN 方法无法在所有场景中确保⼀致的高性能,尤其在K [ r ` [高度异质的图中。~ K Z为了解决这个问题,我们可能需要探索几个关键问题:a)不( ? w /同图数据集的共同属性是什么?b)如何利用这些共同属性增强 GNNs 对标签噪声的稳健性?我们的实验结果表明增强图结构可以减少标签噪声在不同密度图中的传播,进而引] j [ 4 I + } V出第三个问题:c)如果难以识别共同属性,我们能v ! ^ $否通过数据增强来统⼀这些特征?
  • 为各种图学习任务设计 GLN 方法。先前对 GLN 的研究主要集中在节点分类任务上! – y W } / k 3 g。然而,图学习领域还包括其他重要应⽤,如链E W & u u路预测、边属性预测和图分类等。这些应用也可能受到标签噪声的影响,需要进⼀步关注和探索。
  • 考虑图学习中的其他类型标签噪声。先前对 GLa E B | P + ~N 的研究假设图数据中存在两种实例无关的标签噪声,即对偶噪声和均匀噪声。然二,更为现实的假设是实例相关标签噪声,但目前尚未有相关的工作。此外,与其它领域的数* 8 ^ R x `据不同,图数据存在额6 F r L \ ` X & U外的图结构,图结构很有可能影响图数据O 1 i的标注过程,因此图数据的标签噪声模型很可能与图拓扑结y f E构相关。

以上就是NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/118312.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-26 12:51
下一篇 2024-12-26 12:51

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。