http://www.china-cic.org.cn

NCSU研究人员为更智能的AI创建框架,正在寻求专

RALEIGH - 北卡罗来纳州立大学的研究人员开发了一种新的框架,用于通过语法引导的网络生成器构建深度神经网络。在实验测试中,新的网络 - 称为AOGNets--在视觉识别任务中表现优于现有的最先进框架,包括广泛使用的ResNet和DenseNet系统。

“AOGNets具有更好的预测精度比起我们比较的任何一个网络,“北卡罗来纳州电气和计算机工程助理教授,相关作者天福武说。 “AOGNets也更具解释性,这意味着用户可以看到系统如何得出结论。”[1

新框架使用了一种基于系统架构的组合语法方法,该方法利用以前网络系统的最佳实践,更有效地从原始数据中提取有用信息。

“我们发现分层和组合语法给出了我们用一种简单,优雅的方式来统一先前系统架构采用的方法,并且据我们所知,这是第一项利用语法进行网络生成的工作,“吴说。

测试他们的新研究人员开发了AOGNets,并针对三种图像分类基准测试了它们:CIFAR-10,CIFAR-100和ImageNet-1K。

“AOGNets的性能明显优于所有最先进的技术。公平比较下的网络,包括ResNets,DenseNets,ResNeXts和DualPathNets,“吴说。 “AOGNets还使用ImageNet中的网络剖析度量获得了最佳模型可解释性分数。 AOGNets进一步显示了对抗防御和平台无关部署(移动与云)的巨大潜力。“

研究人员还在微软COCO基准测试中测试了AOGNets在对象检测和实例语义分割方面的性能, vanilla Mask R-CNN系统。

“AOGNets获得了比ResNet和ResNeXt主干更好的结果,模型尺寸更小,推理时间相似或稍好一些,”Wu说。 “结果显示了AOGNets在对象检测和分割任务中学习更好的特征的有效性。

这些测试是相关的,因为图像分类是视觉识别的核心基本任务之一,ImageNet是标准的大规模分类基准。同样,对象检测和分割是两个核心的高级视觉任务,MS-COCO是最广泛使用的基准之一。

“为了评估视觉识别中深度学习的新网络架构,它们是金色的试纸,“吴说。 “AOGNets是在原则语法框架下开发的,并且在ImageNet和MS-COCO方面都取得了显着的进步,因此在许多实际应用中对表现学习产生了潜在的广泛而深刻的影响。

”我们对语法感到兴奋引导AOGNet框架,并正在探索其在其他深度学习应用程序中的性能,例如深度自然l语言理解,深度生成学习和深度强化学习,“吴说。

论文”AOGNets:深度学习的组合语法架构“将在IEEE计算机视觉和模式识别会议上发表, 6月16日至20日在加利福尼亚州长滩举行。该论文的第一作者是李希来,博士。 NC州的学生。该论文由独立研究员习松共同撰写。

这项工作是在美国陆军研究办公室的支持下完成的,资金来源为W911NF1810295和W911NF1810209。

提交了一份专利申请工作。作者有兴趣与潜在的学术和行业合作伙伴合作。

(C)NCSU

关注无极荣耀官网(www.china-cic.org.cn)。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。