分享

AI不够智能,就用人类代替吧

 一鸣网 2021-02-01

最近华尔街日报刊登了一篇文章,详细介绍了提供电子邮件服务的公司是如何扫描数百万用户收件箱的。当他们的的人工智能算法提供的“智能回复”功能没有正确回复对话内容时,公司的工作人员将会对人工智能进行更正,所以当我们以为是机器在提供服务,毫无保留时,却没想到有人可以随便进入我们的电子邮箱账户,阅读我们的邮件内容。

人工智能十分受限

我们总是尝试创建完全模仿人类行为和功能的AI应用程序,总倾向于夸大深度学习的能力,产生错位的期望,最终会创建了越来越多地人类机器人,充当人类的AI。美国创业公司X.ai就曾被曝,在使用AI阅读用户电子邮件,自动帮助用户安排任务、会议、电话等来管理他们的工作时,有一群人类工程师在密切监视和纠正AI的表现。

有科学工作者表示,在接下来的几十年里,我们将创建可以像人类一样处理信息并进行决策的人工智能。但目前我们所拥有的只是弱人工智能,只适合于单一场景的应用。例如在腾讯优图中进行图像识别、分类、处理等或在bilibili之类的视频网站中推荐电影。

虽然深度学习算法的表现十分出色,但它们仍然是狭窄的AI,深度学习和深度神经网络具有非常明显的限制,虽然它们在经受训练的特定任务中可以超过人类,AlphaGo打败人类围棋冠军,Open AIDota2的游戏中完虐人类,但是在他们领域之外的场景中它们都失败了。我们现在拥有的AI只是用于解决特定的具体类的任务问题,并不能够像人类一样得心应手地进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。

人工智能的使用要保持透明

而且对AI的架构、算法和应用场景做针对性的测试,需要不断的尝试不同的阈值,找一个通过率和误报率的平衡点。要针对算法的优劣进行针对性的测试,因为有的算法过于严苛,有的算法不够精准。比如手机QQ浏览器探索X的识别准确率训练,针对场景分类、场景比例、数据生成、数据标注等四个部分要进行多轮的分析和实践。只是场景分类就要分为几个维度,考虑用户实际可能会遇到的场景,每个维度设置两端极限值,在两个极限值之间均匀选取。

同时AI的开发和测试需要大量高质量的数据库,并非是所有公司都能访问的商品。所以有些公司就不得不求助于人工来弥补AI的缺点,也可以避免开发深度学习的大量投入。

但公司需要对人工智能的使用保持透明,公司应明确告知用户应用程序背后是否有人,如果用户希望与AI代理进行交互,当人们认为他们是与机器而不是人类进行交互时,他们更倾向于披露信息,包括一些关于自己的日常信息和私密细节,公司不得滥用这种信任。当然如果用户希望人工操作员交互,而对面却是不够灵活的AI代理,也会给用户带来挫败感。

一鸣网文章同步平台

艾瑞丨百度百家丨蓝鲸TMT

微博丨界面丨UC丨品途网|性看点

网易媒体开放平台丨搜狐公众平台|艾瑞网|

百家号|新浪看点|凤凰号|一点资讯

今日头条|科技头条|知乎

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多