“美国电商巨头亚马逊构建了一个人工智能系统,可以追踪公司仓储物流中心每一名员工的工作效率。如果一名员工上班时长时间不干活,系统会自动生成警告甚至解雇指令。据悉,2017年8月至2018年9月,仅亚马逊位于美国巴尔的摩市的某个物流中心就有300名工作效率低的员工离职,原因是他们未达到生产率指标。有些工人抱怨说“被当成了机器人”,“有人甚至直言不敢上厕所。” 大数据的时代洪流中,机器真的全知全能吗?这样的世界真的可取吗?对于日新月异的科技进步,我们应该如何思考与评估呢? 我们身处的环境拥有海量的数据、强大的数据处理能力以及高速执行的能力。作为金融经济学家,首先感受到的冲击来自于高速交易算法、机器人咨询、机器分析以及市场分析等方兴未艾的新兴科技。在喧嚣的大数据时代,在我看来,我们受困于一些基本的悖论。 院长简介 杨贤教授 | Bernard Yeung 新加坡国立大学商学院院长 李棕金融与战略管理杰出讲座教授 主要研究领域:国际商务、发展经济学、金融学、战略与管理等
在大数据时代,机器能够自我学习,拥有语言和视觉的识别能力,最终可以像人类大脑一样运行。机器可以根据最新的信息在瞬间做出判断,预测最优化方案。与人类不同,机器不会受到行为、认知、心理等偏差的影响,其行动与反应的速度让人类望尘莫及。 在金融市场上,市场交易的指令可以在不到50万秒时间内得以执行——这要比人类思维做出决策的速度快100倍,这种基于算法的交易对于金融资产的定价影响深远。与之相似,机器能够瞬间发现与识别会计操作与(公司)治理方面的违规现象与问题。 机器还可以完成动态定价、线上营销、创新匹配等看似复杂的任务。毫无疑问,高速数据处理与人工智能技术让人类开始显得可有可无。高速算法交易让人类交易员看起来没有了存在感,机器人咨询正在财富管理领域蚕食人类的领地,机器分析师让人类分析师自惭形秽,这样的例子数不胜数。 机器智能营销以算法、机器学习与数据科学家输入的信息为基础,这些数据科学家对于消费者的行为或许并没有详实的了解,那么机器的判断与预测是否一定可靠呢?众所周知,机器交易会放大资产价格的波动性并缩短交易周期,这无法不让人怀疑它是否会对资源配置与风险分配产生不良影响,其间充满了未知。 数据处理与人工智能为我们赋能,可是人类会不会对于机器产生过度的依赖呢?机器从数据中学习,我们为机器提供正确的数据,而数据的质量与匹配则离不开人类的知识与投入,如果我们向机器俯首称臣而不做出足够的挑战,我们或许会无意识地疏于对知识的开发,强大的机器所带来的是否就一定是福音呢? 我们来举一个简单的例子,无人驾驶需要机器从人类的驾驶数据中学习,但是当无人驾驶不断普及推广,人类让出方向盘而变成了乘客,机器又从哪里去学习呢?在机器学习中,我们有多层次的数据,由此我们可以产生最优预测模型。可能并不了解模型中一些变量的意义、为何这些变量会被加入模型。那么,问题就产生了。 变量的意义绝非一成不变。比如说,人类行为的改变或者行为的反馈效应都可能给变量赋予新的意义。对于机器的盲目信任就会带来政策上的误导。假如,机器预测到员工的电脑挂在公司网站上的时间与敬业精神是成正比的,那么机器就会向管理层建议将奖金数额与员工的电脑挂在公司网站上的时间相挂钩。但是,员工会逐渐看穿这样的奖金发放规则,那么他们自然会利用“规则”来骗取奖金。这就是宏观经济学中卢卡斯批判的精髓。
机器从数据中学习,其深度学习的能力自不待言,但是其预测与优化方案的有效性只能局限于变量所能涉及的层面。比如说,如果给机器输入的是二维空间的数据,其预测与优化方案的可靠性就只能局限于二维空间。如果问题的底层结构是三维的,机器就无能为力了。 想想看吧,机器可以计算出工时长的员工对公司生产力有貢獻,但是,模型并未能加入诸如EQ、个人效率与工作流程效率等其它维度。这种由机器产生的模型只会鼓励更长的工时,这难道不正是与提升效率的目标背道而驰吗? 当然,未来的机器或许可以克服这个问题,因为机器可以模仿人类的大脑。丘奇-图灵假说认为,地球上所有的问题可以被近似成数学关系,而未来的机器或许可以对任何数学函数进行近似处理。但是可以预见的是,在未来很长的时间里,机器仍然难以预测维度变化所带来的影响。 这会让我们犯大错误,不是吗?在很大程度上这些机器学习创造出的模型都是黑匣子,放进数据,得出结果,强大的预测并不能带来洞见。我们需要具有批评性地去思考,在机器创造的模型中去挖掘因果关系,深耕人脑和电脑的合成智慧。
机器学习是彻头彻尾的黑匣子。机器完成快速而反复的训练,从而获得可靠的预测与优化方案。我们从这种黑匣子式的工具中获得立竿见影的好处。但是究竟谁是这些工具的始作俑者,对此我们往往一无所知。这样我们在问题发生的时候就无从问责。 比如说,当维度缺失产生了问题,因此机器预测出错的时候,谁来为此负责呢?比特币就是一个极有代表性的例子,有些P2P也是。当年华尔街的金融炼金术士开发出了极具潜在破坏性的金融产品,由此引发危机,但是无人因此入狱?殷鉴不远,但我们是不是在重蹈覆辙? 与之相关的一个问题因此而产生——海量的数据,让我们精于算账却缺失了价值观,盲目追求账面上的短期利益,却对我们的行为没有反思。滴滴事件就提供了一个活生生的案例。同时,统计性的歧视也能说明这个问题。比如说,保险公司可以利用强大的数据分析来识别哪些人面临潜在的风险,并大幅提高保费,甚至将他们拒之门外。保险的意义就在于风险的归集、分担与人与人之间的合作,这样的操作难道不是与保险的精神背道而驰了吗?对此,我们有过足够的反思吗? 机器还无法教会一支球队带着尊严输掉一场比赛,但是一位有情怀的教练可以! 我们必须意识到“合成谬误”(fallacy of composition)这一认知偏差:个人的私利不能与其所在群体的公益相等价,而某个群体的得益也未必就是整个社会的福祉。我们时时提醒自己作为人类族群一员的立身之本。
毋庸讳言,掌握数据就代表着力量与权力。但问题是,谁来收集数据,谁来控制数据?在中国,数据受政府控制,在美国,企业掌握数据,但是它们会面对分享数据的压力。在欧洲,数据则归属于个人。 权力导致腐败,但也可能催生领袖。在数据产业中,由于规模经济的存在,无私的分享是难以想象的。那么收集数据的积极性必然受到所有权与使用权的影响。问题因此而应运而生: 什么样的数据、什么数据应该被创造、归集,又由谁来完成? 谁应该拥有接触数据的权利? 数据不是信息,应该由谁来制造信息,应该给予他们什么样的激励? 谁应该获得市场支配力?谁应该获得监管的权力?谁应该获得政治上的权力? 在这个产权模糊的世界里,我们必须牢记权力带来腐败,但也能创造天使。我们面对一个系统设计的问题,但是答案还在风中。 我们不能盲目信任机器,我们必须使用自己的逻辑保持足够的警惕。我们必须认识到大数据与高能计算的深远影响。技术带来丰富的短期利得,但同时放大市场的波动。我们受困于四个悖论,因此我们必须时时反思我们的宏观与微观系统,并开发出全面的信息搜集体系,从某种意义而言,这正是传承自哈耶克的传统。 但是,我们的市场体系需要更多见微知著的反思。我们的痛点在于,人类思考可以创造信息,但是受制于行为偏差,与机器相比无疑显得笨拙而迟钝,尽管后者只能机械地处理数据来粗暴地提升指标。因此市场让出了其领地,逐渐落入到数据丰富而信息匮乏、问责缺失、价值观缺失、以及产权模糊的陷阱中去。 一言以蔽之,我们不能过度信任机器,我们必须用自己的逻辑对机器保持冷静的反思与监督。我们必须找到一条道路,让人类与有智慧的机器合作,让思想与机器结合,以直觉与好奇心来引导分析上的优化,再用分析性的方法来驱动我们的好奇心、检视我们的直觉,让两者相辅相成。 |
|