分享

2022斯坦福以人为本人工智能研究院(HAI)秋季大会

 小飞侠cawdbof0 2022-12-06 发布于北京

来源:元战略

作者:元战略观察员

图片

图片

人机协同:人类肩责


  图片   


本周,斯坦福以人为本人工智能研究院召开2022年秋季大会,本次会议主题为“人机协同:人类肩责”。大会设有三个分论坛,十多位专家学者围绕“AI设计”、“AI社会服务”和“AI与健康”展开讨论并发表观点。

卡内基梅隆大学人机交互研究所计算机科学学院教授Jodi Forlizzi发表了题为《设计在AI承担社会责任中的作用》的开场演讲,着重介绍了设计对创造、发展和部署人工智能技术以及自主系统所产生的影响,他让为应该通过设计创造更好的社会系统、经济关系和生活。

图片

分论坛一:AI设计


  图片   


随着神经网络、计算机视觉、自然语言处理等技术发展,AI正逐渐融入日常生活。人类现在可创造出智能机器,让系统能够在大批任务中协助人类,为人类赋能。但当下仍有许多问题尚未解决。如何负责任、公平和可持续得创造智能机器?谁参与设计智能系统?谁来确定讨论框架?对AI体验有何期许?为使智能系统助力个人、社区和社会,该如何创新设计流程和模式?本分论坛探讨了应如何思考AI时代的设计原则,如何最佳结合自动协助优势与用户互动,从而创造惠及所有人的AI体验。四位专家学者针对该议题发表了演讲。

Maneesh Agrawala,斯坦福大学电子工程计算机科学教授

《危险接口:不可预测的黑盒子》

现代AI模型可产出惊人的高质量文本、图像、视频甚至是程序代码。但这些模型是黑盒子,用户无法针对AI的工作机制建立心理或概念模型。用户没有办法预测黑盒子如何将输入控制(如自然语言提示)转化为输出的文本、图像、视频或代码。相反,用户必须反复创建提示并应用模型来产生结果,然后调整提示并再次尝试,直到输出满意结果。Maneesh认为在能够找到AI模型工作机制的解释方法前,这种不可预测的黑盒子将一直是危险的接口。Maneesh还论证了自然语言的模糊性以及AI模型和人类用户之间共同语义缺失是部分原因,并提出一些改进AI模型接口的方法。

Saleema Amershi,微软研究院高级首席研究经理

《衡量影响人与AI团队的重要因素》

推动AI产业发展的成功评估指标和人们在现实世界的关注点之间存在着巨大差异。例如,当AI辅助编程时,一项重要价值主张便是代码生成模型可能极大提高开发人员生产力。然而,当前离线评估指标用于通知模型开发决策,确定模型部署类型的决策者,目前聚焦于生成正确性,而不是人机结合的正确性及相关工作。而目前在线指标侧重于接受率,忽略了开发人员在提示、审查和编辑生成代码上的交互成本。本演讲介绍了微软研究院HAX团队当前的工作——开发能够更忠实地反映人类-AI团队需求和效率的指标和测量工具。

Elizabeth Gerber,西北大学麦考密克工程学院机械工程教授、计算机科学教授和通信研究教授、人机交互和设计中心联合主任

《未来理想的工作模式:人与AI合作的工作设计》

工作设计是创造的过程,使一个组织能够实现其目标,同时激励和奖励员工。AI有可能对人们的自主权、工作反馈、技能多样性和运用以及工作意义产生积极和消极的影响,其中工作意义涉及AI对工人福利和绩效的影响。为创造理想的未来工作,需要建立由工作设计师、体验设计师和AI设计师组成的跨学科设计团队,一起通过情境调查和迭代测试,共同优化人与AI的合作关系。

Shneiderman,马里兰大学人机交互实验室创始主任

《以人为本的AI设计准则》

当将AI应用于医药、交通和军事应用等关系生命的重要领域中,确保人类可以控制这些应用变得愈发重要。用户设计若能促进可理解性、可预测性和可控制性的提升,将获得更多的用户认可,同时促进人类的自我效能感、创造力、责任感和社会联系。该准则包括 '先预览、选择和启动,然后管理执行'。

上周,斯坦福以人为本人工智能研究院召开2022年秋季大会,本次会议主题为“人机协同:人类肩责”。大会设有三个分论坛,十多位专家学者围绕“AI设计”、“AI社会服务”和“AI与健康”展开讨论并发表观点。

图片

分论坛二 AI社会服务


  图片   


AI技术正在影响使用这些技术的社区和组织机构,并且改变因人们种族、民族、性别或社会经济地位的不同而造成的差别。本分论坛将进一步探讨AI技术如何改变组织结构,如何才能将理想的社会惯例纳入到技术中,以及为什么必须在设计中考虑多样化需求和价值观。三位专家学者针对此议题发表了演讲。

图片

Niloufar Salehi,加州大学伯克利分校信息学院副教授

《高风险情况下以人为本的机器翻译》

高风险情况下部署AI系统面临重大挑战。例如,机器翻译(如谷歌翻译)在消除语言障碍方面潜力巨大,广泛应用于美国的医疗机构。但研究表明,近20%的常见医疗短语译成中文时会被误译,其中8%造成了重大的临床医疗事故。我们的目标是开发新技术和工具,以便在现实高风险环境下设计可靠和有效的AI。Niloufar Salehi还讨论了用于算法需求评估、计算系统设计和AI系统评估的新方法。

图片

Melissa Valentine,斯坦福大学工作、技术和组织科学(WTO)联合主任

《帮助专家测试理论:算法如何既依赖又威胁职业专长》

关于工作场所算法的研究预测到未来会出现人机相互竞争的局面。一些研究表明,算法威胁着知识工作者的知识权威。然而,也有其他研究表明,数据科学家高度重视知识工作者的 '领域专长'。Melissa在一家零售科技公司开展了10个月的人种学研究,在该公司,数据科学家请该公司的领域专家明确阐述其决策背后依据的理论,并利用算法的严格分析淘汰或更新这些理论。这些已明确理论的新测试周期要求买家帮助配置决策和分析。然而,新的理论测试也要求买家定期淘汰和修改其理论。因此,用算法来测试时尚买手的理论是一种新的共生专业知识,既建立其专业知识之上,也威胁着其专业权威。Melissa的研究表明,算法可以使专家的隐性知识在评估和测试中显现出来,此过程既重视专家如何表述知识,又通过反驳其理论知识的有效性来威胁其专业权威。

Michael Bernstein,斯坦福大学计算机科学副教授

《AI解决社会分歧》

AI系统应该学习模仿谁的声音、谁的标签?对于从网上恶意评论到错误信息检测再到AI在医疗诊断中承担的任务,不同社会群体可能对参考标准(ground truth)组成存在分歧,甚至难以调和。实践结果证明,当前AI性能指标还难以应对此类社会分歧。如何应对这一问题?Michael介绍了一个明确解决这些分歧的AI架构:陪审团。以陪审团作比,这一架构包括以下要素:对哪些人或群体进行定义以及以何种比例决定分类器的预测。

上周,斯坦福以人为本人工智能研究院召开2022年秋季大会,本次会议主题为“人机协同:人类肩责”。大会设有三个分论坛,十多位专家学者围绕“AI设计”、“AI社会服务”和“AI与健康”展开讨论并发表观点。

图片

分论坛三 AI与健康


  图片   


AI技术正在改变医疗保健行业,并将对全球健康产生深远影响。本分论坛专家针对AI在医疗辅助和无障碍方面的最新研究和应用进行了探讨:从医疗保健专业人员培训到增进福祉、促进社会行为改变和帮助残疾人。论坛还就关键的设计考虑因素进行了讨论,确保AI系统更好地服务其对象。三位专家学者针对此议题发表了演讲。

图片

Meredith Ringel Morris,谷歌大脑首席科学家

《无障碍性是以人为本的AI研究的中期挑战》

世界卫生组织估计,全世界有超10亿人受过残障困扰,其中15%的人口遭受永久性或长期残疾,其余85%的人都经历过临时性或情景性残障问题,无障碍技术解决方案将帮助解决这些残障问题。新兴AI技术可提高或补充人们的感官、运动和认知能力。设计以人为本的系统来解决无障碍情况是一个中期的目标,不仅具有巨大的社会价值,而且引发了极具挑战性、意义重大的问题,如果得以解决,将从根本上推动AI和人机交互技术的发展。在这次演讲中,Meredith对在设计以人为本的AI系统方面所遇到的挑战和机遇进行了反思,这些场景包括为盲人提供自动图像描述,为行动不便者提供高效准确的预测性文本输入,以及为有阅读障碍的人提供AI增强的写作支持。

图片

Carla Pugh,斯坦福大学医学院技术驱动的临床改进中心(T.E.C.I.)主任

《新方向和新数据推动AI在精准医疗中的下一步发展》

精准医疗的进步在很大程度上取决于全面有效地获取有关病人解剖学、生理学和疾病的额外信息,以及护理团队的协调和决策。AI已被誉为助力精准医疗发展的重要工具。迄今为止,使用AI分析外科手术视频已取得显著成功,最终目标是实现对手术错误的实时预警能力和自动远程会诊,从而帮助治愈病人。尽管最近在使用AI分析手术视频方面取得成功,但还远远没有实现长期追求的将AI实时整合到医疗工作流程中的目标。在这次演讲中,Carla探讨了在思维、研究和技术开发战略中必须发生的范式转变,从而正确定位AI,将其成功融入医疗护理中。

图片

Tanzeem Choudhury,康奈尔科技校区综合健康与技术教授

《创建患者和供应商共同负责的统一数字心理健康解决方案》

AI科技在医疗领域发挥着重大作用,同时心理健康受到了科技领域越来越多的关注。在新冠疫情期间,科研人员做了大量工作将AI纳入心理健康服务。在此次演讲中,Tanzeem探讨为什么技术专家不应该假设AI工具在部署时总是表现良好,强调我们可以创建解决方案,解决患者和供应商的需求,并改善心理健康护理的获取方式、结果和质量。

图片


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多