音讯 为什么darpa研究可解释的AI?

为什么darpa研究可解释的AI?

Anonim

问:

DARPA为什么要研究“可解释的AI”?

A:

一般而言,可解释的人工智能正在成为数据科学前沿工作中广为宣传的一部分。 它有助于指导人类对本质上易变和动态类型的技术的控制-可解释的AI有助于回答我们有关人工智能如何工作的许多集体问题。

要了解可解释的AI,它有助于了解“常规AI”的外观。 传统上,随着AI初具规模,典型的项目包括一个花哨的新软件功能,这些功能隐藏在算法,训练集和线性代码中,对于用户而言,这是“盒子”。 他们知道它有效–他们只是不知道具体如何。

这可能会导致“信任问题”,用户可能会质疑技术决策的依据。 这就是可解释的AI应该解决的问题:可解释的AI项目带有附加的基础结构,以向最终用户显示AI的意图和结构-为什么会执行它的工作。

在比尔·盖茨和埃隆·马斯克这样的顶级创新者表达了对人工智能如何工作的担忧的时代,可解释的人工智能似乎极具吸引力。 专家认为,良好的可解释的AI可以帮助最终用户理解为什么技术能够做到自己所做的事情,增加信任度并提高这些技术的易用性和利用率。

但是,特别是DARPA会专门解释为什么对新项目感兴趣。 DARPA上的一页显示,国防部预计人工智能应用将“激增”,并且其发展过程中将出现一些混乱。

David Gunning写道:“不断的进步有望产生能够独立感知,学习,决定和采取行动的自主系统。” “但是,这些系统的有效性受到机器当前无法向人类用户解释其决策和行动的限制。 …如果未来的战士要理解,适当信任并有效管理新一代的人工智能机器伙伴,那么可解释的AI(尤其是可解释的机器学习)将至关重要。”

Gunning的在线文章建议,可解释的AI系统将有助于“提供技术依据”,展示其优缺点,并使用例更加透明。 页面上的图形显示了如何通过称为“可解释的模型”和“可解释的界面”的东西来增强来自培训数据的直接人工智能功能管道,这些东西将帮助用户回答问题。 Gunning进一步建议,一个可解释的AI程序将有两个主要重点领域–一个将在多媒体数据中筛选以查找对用户有用的内容,第二个重点将是模拟决策支持的决策过程。

DARPA希望提供一个“工具包”,以帮助开发未来可解释的AI系统。

为什么darpa研究可解释的AI?