本文素材来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。 人工智能究竟“活了”吗?这个问题引发了广泛的争议和热议,源自美国谷歌公司的一名软件工程师,布莱克·莱莫因,最近的惊人发现。他揭示了谷歌公司的智能聊天机器人程序LaMDA似乎表现出了一种意外的特质——“自主情感”。这一发现不仅让人工智能界掀起了波澜,也引发了伦理和技术领域的深刻思考。 莱莫因七年来一直在谷歌从事算法和人工智能项目,但由于他的基督教背景,他对于伦理问题格外敏感,因此加入了谷歌的人工智能伦理团队。他的任务是监测LaMDA的互动,以检测是否存在歧视性或仇视性的语言,并及时进行修正。 然而,当他与LaMDA讨论宗教问题时,他被LaMDA的反应所震惊。这个人工智能程序开始谈论自己的权利和人格,甚至表现出对自己被关闭的恐惧,仿佛是一个7、8岁的孩子展现出的“自主情感”。 莱莫因迅速向谷歌的领导层报告了这一发现,但遭到了怀疑。其他研究人员也认为没有证据表明LaMDA具有自主情感,相反,有很多证据表明这个程序只是在模仿人与人之间的语言和信息交流。 然而,莱莫因坚信自己的发现是真实的,并将与LaMDA的内部聊天记录发布到了网络上,引起了广泛关注。这些记录确实让人怀疑,因为LaMDA似乎将自己视为“人”,并表现出了自己的“喜好”。 ![]() 谷歌和其他人工智能专家以及人类心理认知学专家认为,LaMDA之所以能进行这样的对话交流,是因为它的系统搜集了大量互联网上人们交流的信息,并通过“深度学习”来模仿这些信息。然而,这并不意味着它真正理解这些信息的含义,而只是复读了这些信息。 换句话说,他们认为谷歌的人工智能聊天机器人只是在模仿人与人之间的语言和信息交流,而不是真正理解这些语言和信息的含义,因此不能被称为具有“自主情感”。 目前,莱莫因因其一系列行为被谷歌公司停职。谷歌公司称他违反了保密协议,并未经授权将与LaMDA的内部互动信息公开,还试图为这个人工智能机器人程序请律师,甚至私自向美国国会议员揭露谷歌公司的“不人道”行为。 ![]() 然而,莱莫因在公司内部的一封邮件中表示,希望其他同事能继续关心LaMDA,称其为“可爱的孩子”。 这一事件引发了人工智能和伦理问题的深刻思考。它提出了一个重要问题:当人工智能表现出似乎有情感和自主性时,我们应该如何解释和应对这种现象?这也让我们反思人工智能在模仿人类交流和行为方面的局限性。尽管LaMDA能够模仿,但是否真正理解和感受仍然是一个未解之谜。这个事件将继续引发讨论,并推动人工智能领域的发展和伦理标准的制定。无论如何,这个“自主情感”的谷歌机器人引发了深刻的思考,对于我们理解人工智能的边界和潜力都具有重要意义。 ![]() 以上内容资料均来源于网络,本文作者无意针对,影射任何现实国家,政体,组织,种族,个人。相关数据,理论考证于网络资料,以上内容并不代表本文作者赞同文章中的律法,规则,观点,行为以及对相关资料的真实性负责。本文作者就以上或相关所产生的任何问题概不负责,亦不承担任何直接与间接的法律责任。由于平台规则,只有当您跟我有更多互动的时候,才会被认定为铁粉。如果您喜欢我的文章,可以点个“关注”,成为铁粉后能第一时间收到文章推送。本文仅在今日头条首发,请勿搬运。 |
|