分享

如何让AI像人类一样理性分析问题?

 昵称11935121 2018-09-13

如何让AI像人类一样理性分析问题?


Esther| 撰文

今后,AI也可以像人类一样解释自己做决定的推理过程了。近日外媒报道,MIT林肯实验室的智能与决策技术研究小组在今年夏天的CVPR上展示过一篇论文,论文中科研人员阐释了一款能够“像人类一样”经过推理回答问题(一些识别图片内容的问题)的神经网络系统,颠覆了人们对神经网络推理过程的理解。

据青亭网了解,MIT开发的这款神经网络系统名为Transparency by Design Network(有意透明化的网络/TbD-net),TbD-net会通过热网来进行视觉分析。当TbD-net分析照片时,会使用明亮且容易识别的颜色标志关键的物品(按论文中的说法叫做关注蒙版)代表模块化网络的输出值,或者用于完成专门任务的小型神经网络。

如何让AI像人类一样理性分析问题?


MIT News网站上写道,模块化网络是一款适合完成视觉推理任务的框架,但是在遇到复杂视觉推理问题时,效果就没那么好了,即使是市面上最优秀的神经网络也缺乏可以让人类理解推理过程的机制。

而TbD-net中的每个模块的工作机制就像是流水线上的工人一样,一个接一个在前一个模块产出的结果基础上处理问题,最后得出一个最终的正确答案,整个TbD-net使用了同一款AI技术去分析人类问的问题,方法是先将问题分成多个子任务,再使用多种计算机视觉AI技术来解释图中的内容

用一个简单的例子来解释,就好比是给孩子看一副画满各种形状的图,让她找到其中的大红圆,她会先找到图片中体积大的图形,接着找出红色的图形,最后选出红色的大圆。

那么Tbd-net是怎么回答“大金属立方体的颜色是什么”这种问题呢?它会一边解答问题,一边通过视觉视觉来渲染它的想法。

首先,会有一个模块将大体积的物体分辨出来,然后第二个模块会识别这些物体中有哪些是金属做的,第三个模块会寻找符合上述两个条件的立方体,第四个模块会识别被选中物体的颜色。

如何让AI像人类一样理性分析问题?


理解神经网络做决定的理由一直是AI科研人员面临的挑战,所谓神经网络,就是受到人脑启发的AI系统,目的是模仿人类学习的方式

神经网络中存在输入层和输出层,但是在这两个关键层之间还有将输入信息转化为正确输出信息的多个层面。有些深度神经网络非常复杂,人们基本无法理解它的想法,因此人们称这些无法理解的区域为黑盒子系统,里面的信息即使是其创造者也无法了解

林肯实验室的科研人员开发的TbD-net网络,既让人容易理解,也没有牺牲性能。在一次使用了8.5万张训练图片和85万个问题的测试中,TbD-net的答案准确率为98.7%,胜过了其他的神经模块网络。使用CLEVR数据集(专门用于分析现代视觉推理系统)对这款神经网络进行测试后,准确率曾提高到99.1%,得到这一结果的部分原因是,科研人员可以使用网络在每次测试中生成的热图来进一步对后续的测试精调。

此外,这款神经网络模型还能够学习比较概括的问题,即使只给模型提供少量关于物体的特殊性质信息,其也一样可以处理。

论文的作者们认为,这样能够展示推理过程的神经网路对于建立用户信任来说有很大帮助。比如,无人驾驶汽车的神经网络区分行人和停车标志的标准、它推理问题的过程,都是很值得了解的课题。了解了AI的想法后,科研人员就能够修改神经网络的一些不正确认知。

近年来,一些其他企业、政府机构和独立科研人员都曾经试过破解所谓的AI黑盒子,比如IBM科研人员就曾提倡为AI提供“说明书”,解释AI模型的弱点、偏见、面对对手攻击的敏感性等特征,让用户更好地了解AI。

如何让AI像人类一样理性分析问题?


在2017年,美国国防部先进研究项目局(DARPA)推出了一项名为DARPA XAI(可解释的人工智能)的项目,目的是将AI的黑盒子变成透明的“玻璃盒子”模型,可在不牺牲性能的情况下让人更容易理解。此外,微软、IBM、Facebook以及埃森哲分析公司都在开发自动化工具,来检测和减少AI算法偏见

IBM研究院AI基金会主任兼社会公益AI科学项目主任Aleksandra Mojsilovic表示:“AI系统有很大潜力,将会改变人们生活和工作的方式,但是AI如果想取得人类的信任,必须解决透明性的问题。”如果能够检查AI的推理过程,人们就能更好了解它做出正确的预测/错误的预测的原因了。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多