分享

不用担心AI跟你抢工作,它们太容易被骗了

 阳光每天都是新的 2019-01-24

虽然AI给人类带来的方便已经不胜枚举,但越来越多的人仍然在担心AI技术的快速应用可能会夺走未来人类的工作,有时,这种想法甚至很有紧迫感。不过,一些研究人员不同意技术很快就会从人类手中夺走工作的想法。

加州大学洛杉矶分校(UCLA)的研究人员进行了一些实验,结果表明,“深度学习”的机器存在严重局限性。

AI未来还有很长的路要走

“以深度学习计算机网络的人工智能机器到底有多聪明,这些机器与人类的大脑有多类似?近年来,对这个问题已经取得了很大的进步,但前方仍有很长的路要走,“加州大学洛杉矶分校的认知心理学家团队在PLOS《计算生物学》期刊上发文提出了这一问题。

有AI技术的支持者表示,非常愿意使用这些神经网络网络来完成多种多样的个人任务,甚至完成通常要由人完成的工作。然而,在这项研究中的五个实验的结果均表明,神经网络很容易受骗,网络利用计算机视觉来识别目标的方法与人类的视觉有很大不同。

“这些机器存在严重的局限性,我们需要了解这些局限性。”加州大学洛杉矶分校心理学教授,该研究论文的资深作者Philip Kellman说。

AI网络很容易被骗

Kellman表示,机器视觉存在局限性。在第一个实验中,研究人员的实验对象是性能最好的深度学习网络之一VGG-19,使用的是经过修改的动物和目标的彩色图像。比如,和高尔夫球表面相同材质的茶壶、身上有斑马条纹的骆驼等等。结果VGG-19在40个对象中只有5个首选项是正确的。

第一个实验中使用的部分图像及实验结果

“我们可以很容易地骗过这些人工智能系统,”该研究论文共同作者之一,加州大学洛杉矶分校心理学教授Lujing Lu说。“这些系统的学习机制远远没有人类思维复杂。”

第二个实验中使用的部分图像及实验结果

在第二个实验中,心理学家向VGG-19展示了一些玻璃雕塑的图片,并向第二个深度学习网络展示了AlexNet。 VGG-19在所有测试两个网络的实验中表现更好。这两个神经网络都使用ImageNet的图像数据集训练。

然而,两个网络都未能识别出图像中的玻璃雕塑。

第三个实验中使用的部分图像及实验结果

在第三个实验中,研究人员向VGG-19和AlexNet展示了40幅黑色轮廓的白色图像。目的是为了检验神经网络是否能够通过其形状识别物体

研究人员得出结论,人类可以识别整个物体,而人工智能网络可以识别物体的碎片。

“这项研究表明,这些系统在接受训练的图像集合范围内得到了正确答案,但没有考虑形状。而对于人类来说,目标的整体形状是目标识别的主要形式,而目前的目标识别深度学习系统中似乎并不包括对整体形状的识别。“Kellman说。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多