分享

人工智能从大脑“读出”语言

 昵称m5Gu5 2019-01-10

作者:唐一尘


对于许多瘫痪且无法说话的人来说,他们想要表达的语音信号隐藏在大脑中。但没有人能够直接破译这些信号。


不过,最近有3个研究小组在将植入大脑的电极数据转化为计算机生成的语音方面取得了进展,他们通过被称为神经网络的计算模型,重建了可以被人类听众理解的单词和句子。


植入电极的癫痫病人帮助人们破译语言。图片来源:WENHT/ISTOCK.COM


最近几个月以来,正如在bioRxiv上发布的多篇论文描述的那样,研究人员仍无法完全重建仅仅存在于人们大脑里的语音信息。但另一方面,研究人员在人们大声朗读、轻声细语,或者听录音的时候,监视了大脑的部分活动。


未参与该研究的瑞士日内瓦大学神经工程师Stephanie Martin表示,重新演绎人们脑海中的语音信息这一做法“令人兴奋不已”。


中风或疾病后失去说话能力的人可以用眼睛或其他小动作控制光标或选择屏幕上的字母。但如果大脑—计算机界面能够直接重建语言,他们可能会重新获得更多,例如,控制语调或者在节奏较快的对话中插话。


但将这一想法付诸实践却困难重重。“我们试图找出在不同时间点打开和关闭的神经元模式,以此推断语言信息。”美国哥伦比亚大学计算机科学家Nima Mesgarani说,“从一个映射到另一个映射的过程非常复杂。”


这些信号转换为语音的情况因人而异,因此必须对计算机模型“因材施教”。这些模型需要非常精确的数据支持,而这需要打开头骨。



研究人员只能在极少数情况下进行此类侵入性研究。一种是在切除脑瘤的过程中,暴露在外的大脑发出的电信号帮助外科医生定位并避开关键的语言和运动区域。另一种则是当癫痫患者植入电极以确定手术前癫痫发作的起因时。Mesgarani表示,在收集数据的过程中,“我们的操作时间最多只有20至30分钟,时间非常宝贵”。


研究人员通过将信息提供给神经网络获取了大部分宝贵数据,神经网络通过将信息传递到计算“节点”层处理复杂模式。神经网络也能通过调整节点之间的连接来学习。在实验中,神经网络接触了一个人发出或听到的语音记录以及同步的大脑活动的数据。


Mesgarani团队使用了5名癫痫患者的数据。该网络分析了听觉皮层(在语音和听力过程中都很活跃)在他们听到故事录音和人们从0读到9的录音后的记录活动。然后,计算机仅利用神经数据重建了录音中的数字。计算机“读出”人们脑海中数字的准确度高达75%。


德国不来梅大学神经科学家Miguel Angrick和荷兰马斯特里赫特大学神经科学家Christian Herff领导的另一个团队,则采用了6名接受脑肿瘤手术志愿者的数据。他们捕捉到这些患者朗读单音节词的声音,同时电极还记录下大脑的语音规划区域和运动区域活动。神经网络将电极读数映射到音频记录,然后根据先前的脑数据重建单词。根据计算机化的评分系统,大约40%的生成单词能够被理解。


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多