分享

“2019年最有价值的OD文章” | 李晖偈说OD

 盖雅学苑 2022-06-13 发布于江苏

从2007年开始,OD之父贝克哈德所创办的组织发展协会(OD Network),就会不定期颁发一个“最有价值的文章”奖;而这篇“最有价值的文章”呢,由期刊《OD评论》的评委会,从一两年内发表的OD领域中颇有有见地的文章中挑出。

近日,2019年度“最有价值文章”出炉了——由三位咨询顾问Frederick A. Miller ,Judith H. Katz 和Roger Gans发表的《AIxI=AI²:将包容算法纳入AI是当前OD的紧迫任务》(AIxI=AI2: The OD Imperative to Add Inclusion to the Algorithms of Artificial Intelligence)获得了年度大奖。
只看标题,你可能有不明就理之感;但若看完全文,一定会惊叹作者的远虑和远见,也能够大大扩展一个OD从业者的思考范围。

虽然早在70年前,英国伦敦的塔维斯托克研究所,特里斯特(Trist)和他的同事们就提出了“社会技术系统”的概念,早早提出技术会强烈地影响组织的运作和进化。但即使进入现今的AI时代,我们似乎并没有见到太多关于AI与OD的讨论。

——而这篇文章为我们开辟了一个新的视野,让我们第一次仔细思考AI时代下,OD的价值和紧迫任务。

AI是好AI,但正不正经就不一定了

1948年,伟大的计算机天才图灵36岁,他在那一年写了一篇叫作《智能机器》的论文。这篇论文直到20年后、即图灵去世后的第14年,才被发表。就在这篇论文里,被现代人敬仰为人工智能之父的图灵,首次向世人勾勒出了人工智能领域的轮廓。

AI是人工智能的缩写,从它诞生的那一天起,就开始丰富和挑战人类的智力边界和生存规则,同时也在改变着组织生态。随着计算机科学的发展,从科研界进入产业界的AI进一步冲击着我们生活的方方面面。如今,我们几乎每一个个体都在被AI所影响着。

毫无疑问,企业的生产和运行秩序也受到了AI的影响:如今,以复杂算法所驱动的机器人或者其他机器,已经与白领、蓝领工人们一起忙碌着。有的机器人做着简单的体力工作,有的却能够承担更复杂的客户服务、市场决策工作。甚至,我们获得工作、购买商品、支付货款、接受各种判决和执法的背后,也有AI在发挥作用。

机器人只是有形的AI,但是更多的是无形的算法隐藏在身后。

AI为我们带来了更快的效率和更高的效能,人们欣喜于AI的技术进步。

但是,AI是好AI,正不正经就不一定了:因为在即使看似公正和客观的计算机背后,也存在着被遮敝的“算法歧视”。
这是一种新型的歧视。AI自我学习的过程会受到输入的语言和素材的影响,如果输入端存在偏见,那么在输出时也可能存在问题。举些例子:2015年,谷歌公司的由AI和机器学习所驱动的照片APP,把不少黑人照片识别为大猩猩;2016年的一项研究发现,在美国的法院保释和裁决审判中,AI软件系统会经常错误的把黑人,判定为有更高的再犯罪倾向……
所以,越来越多的人认为,AI有可能通过技术和算法,把社会偏见复制到算法世界。

AI时代的OD使命

自OD作为一个领域初创以来,其重要使命之一就是打造一个“基于民主和参与的最佳组织环境和工作场所”,从而让所有的劳动者能发挥出最佳的效能。所有的OD实践者也在努力消除,存在于组织环境和互动中的各种制度化的歧视行为和刻板偏见。

但组织人力资源进入AI时代后,OD实践者也将面临更大的挑战。
如果说过去的挑战是比较显现的,那么AI时代所遭遇到的“算法歧视”则更加难以发现,也更加难以应对和解决。就像我们很容易质疑一位面试官的专业度和是否存在不公平的现象,而如果当面试成绩是由AI机器和算法来判断时,我们更愿意相信这是一个客观的结果。

2016年一份叫作AI NOW的报告,就指出:

由于机器会被假设为公平和无偏见的,所以机器所进行的预测和结果推荐,更有可能被认为是更加客观的。谷歌、亚马逊这些AI大厂们,也一直为他们的机器人算法积极辩护着。再加上,由于算法的进一步复杂化,即使结果被质疑,无论是AI还是其创造者们,也都无法解释决策的过程。所以,看似非常客观的背后,很容易隐藏深深的歧视陷阱。
正如计算机处理的谚语「输入没用的东西,就产生没用的结果」(garbage in, garbage out),AI算法最大的问题来自于「输入偏误的数据,就产生偏误的结果」(bias in, bias out)。算法的过程可以做到客观,但却无法抵制算法和机器学习的数据和素材。如果在更广泛的社会领域存在偏见,AI学习的也一定是偏见。
由于AI的应用,会影响到组织的方方面面(从决定谁入职,到谁晋升,从产品和服务的生产、设计、到营销)。所以OD从业者很有必要去分析AI对组织的影响,以避免“算法歧视”带来的组织陷阱。

除了避免“算法歧视”外,AI时代的OD实践者的使命还包括:

首先,是创造出让人与机器和谐共生的企业文化。毕竟,越来越多的机器人正在替代人类和他们的工作岗位,该如何面对那些非人类的机器人同事?我们是否愿意接受他们作为一个工作伙伴,甚至一个管理者?当机器人进一步侵蚀工作岗位,企业减员和再求职成为常态,我们又该如何面对?这些,都是AI时代,OD岗位需要密切关注的。
其次,随着AI的技术普及,越来越多的创业企业,会利用AI来解决更广泛的个人或社会问题。OD实践者需要支持企业的管理者,避免在企业文化上的重大错误。

将包容精神纳入到AI算法

那么,究竟如何解决AI算法中的隐藏的“算法歧视”呢?

这篇“最有价值的OD”文章认为,最核心的是把包容(Inclusion)精神纳入AI算法中来。所谓包容精神,要求负责任的AI开发者,能找到方法去提升对偏见的意识和认识,在引导机器的自我学习过程应该更加多元化,纳入更多的规则。
正如文章标题所言,只有当AI与I(Inclusion)相结合,才能带来更好的AI(AI²)。

更细节的策略是,除了要重视代码,也要重视写代码的人。这篇文章的末尾,作者提出了一些具体的策略,来改变技术领域的文化让其更加包容,让他们能更深刻认识到这一领域的技术工作者以及他们的代码所潜藏的偏见和歧视。

第一个策略是文化变革。他们需要有能力和方法来认别出更广泛范围的偏见和不公正,同时他们也要认识到这些偏见和不公正是真实的、有害的。这种文化变革需要通过教育、社会化以及认证的方法来进行。
第二个策略是技术监督。指对于代码质量的监督和使用者的申诉管道。作者提出了两个机制,一个是组织内和行业范围内的同行评审机制,另一个是AI的受众申诉管道。
第三个策略是即刻反应。作为OD从业者,我们没有办法等待AI机器人领域天启式的自我觉醒,我们只能即刻反应,推动AI从业者尽早意识到他们技术之下的灰暗,推到更加公平和无歧视的AI产品。

总之,组织并不是静态的,它受组织外的环境和组织内的人员的双重影响。组织本身就是人与技术互动下的结果。作为OD的从业者,我们要擅于发现来自于外部的风险,当然也要发现来自于内部的推动。
AI正在改变世界,也正在改变组织,对于OD来说,压力才刚刚开始。

作者介绍:

李斌,盖雅学院执行院长、盖雅工场HRD。

李斌先生毕业于南京大学,硕士学位,先后拥有十五年大型制造企业、互联网企业资源以及非盈利组织从业经历,擅长企业文化建设、组织变革与发展和人力资源体系建设。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多