为保障AI系统安全性,纽约大学正在开发识别漏洞和缺陷的新方法
几十年来,网络安全社区一直在设计保护措施,以抵御恶意软件的攻击,并识别和修复可能破坏计算程序的缺陷(这些程序对生活的各个方面至关重要)。现在,纽约大学坦登工程学院(NYU Tandon)和哥伦比亚大学组成的一个研究小组,正在开发一批工具,为人工智能( AI )系统提供同样的保护,并已获得美国国家科学基金会( NSF )的资助。
NYU Tandon电子和计算机工程系助理教授Siddharth Garg说:“在你部署计算机软件之前,有很多方法可以测试和调试,还有一些方法可以验证软件是否能如预期的那样工作。而人工智能系统没有任何类似的东西。我们正在开发一套工具,可以让自动驾驶、医学成像和其他应用系统的部署更安全可靠。”
除了Garg,研究团队成员还包括NYU Tandon电子和计算机工程系的助理教授Anna Choromanska,计算机科学和工程系的Brendan Dolan-Gavitt,以及哥伦比亚大学工程学院计算机科学系助理教授Suman Jana。
NSF将提供为期三年,共90万美元的资助,使研究人员完善正在开发的一套工具,这些工具主要用来保障人工智能系统的安全性。Garg解释说,他们的工作包括建立防御计划,防御恶意攻击,检测系统是否存在可被利用的“后门”,以及诊断系统中可能产生安全影响的无意缺陷。最近几起广为人知的无人驾驶汽车车祸就是例子。
人工神经网络是AI系统的基础,它支持自动驾驶、语音识别和面部识别等技术,以及正在改变医学成像的机器学习算法。人工神经网络如此复杂和独特,用于调测、验证软件的传统方法根本不适用。
Dolan - Gavitt说:“随着深度学习在越来越多的领域得到应用,开发识别漏洞和缺陷的新方法,以及了解我们何时对系统进行了足够好的测试,并有信心部署它,都是至关重要的。”
原文链接:
https://www.eurekalert.org/pub_releases/2018-08/ntso-san082018.php
来源:EurekAlert
智能观 编译
—完—
想知道AI加教育领域有哪些最新研究成果?
想要AI领域更多的干货?
想了解更多专家的“智能观”?
请前往:www.智能观.com。
想交流沟通,请加负责人微信:znglmym
声明:
编译文章旨在帮助读者了解行业新思想、新观点及新动态,为原作者观点,不代表智能观观点。