分享

人工智能对人类社会的影响不是革命而是潜移默化

 heshingshih 2023-10-05 发布于北京

——《算法社会:技术、权力和知识》的读书笔记

读这本书的本意是想了解关于算法合规与监管领域的专业文献,毕竟算法安全在今年AIGC带来的新一轮人工智能浪潮中,是必须面对的安全创新领域与机会。虽然关于人工智能的忧虑始终在人文与哲学领域充斥着争论,但形而上学除了在意识形态领域达成共识之外,在利欲熏心的资本主义驱动下,对如何控制人工智能的安全风险于事无补。我关注的更多的是企业领域人工智能算法的安全风险以及从监管维度上关注合规风险的治理,但这本书的范围却与我想象中不同,更多的关注的是人工智能对行政、司法领域的权力模式的变革,这个领域涉及到政府权力的数字化和技术化带来的风险,当监管忙着把企业的技术风险关进笼子时,谁来吧政府权力被技术侵蚀的风险关进笼子里,更值得我们思考。

汤姆.克鲁斯2002年有部电影《少数派报告》关于预测犯罪的反思当年觉得颇为震撼,现如今看来,在技术推动下,大数据和人工智能重要的功能之一就是预测犯罪,欧美多个国家通过人工智能技术在司法领域进行犯罪的预测和预防,尤其是通过大数据的机器学习,解决了人工干预参数的局限性,发现潜在的难以觉察的模式,虽然机器学习主要是通过相关性分析进行的分类,难以实现可解释和透明的因果关系验证,但表现的效果依然会促进算法的应用。本书中反思最多的是关于概率模式下,对个人误判的问题,通过概率对个人误判本质上是对群体的歧视的本源,而且个人的判断与概率分类的结果可能大相径庭,著名的罗斯福,林肯,希特勒早年经历与日后表现就是最好的例证。

最让人担心的是政府官员关于个案的自由裁量权被让渡给系统背后的人工智能,执行决策引起的风险,虽然目前人工智能决策都被冠以copilot(驾驶舱助理)的称号,由人工按照经验和自由裁量最终决策,但决策建议和数据源均来自人工智能,被裹挟和挟持也是一种必然,因此,如何做到负责任的算法和可追责的算法,在审视算法的可解释性,透明性以及预测和决策场景中的审核,必不可少。

论文集中对智慧城市的反思,更是我从未考虑过的角度,倒是想过智慧城市宏大的构想在现实利益纠葛和对人才需求的专业牵绊中成功的几率渺茫,但是从技术乌托邦的角度甚至是科技公司利益绑架的维度,令人不寒而栗,这个世界的多元思考带给我们更多的反思,当然也更难以达成共识,智慧城市可能只能是个美好的愿景吧,实现了是不是美好甚至都值得怀疑。

作为一个学术论文集,用散文的视角阐述,不免挂一漏万,还是原文改写的摘抄笔记更为传神,如果写论文,不妨引用,毕竟博士论文撰写过程中训练的APA引用法,已经传承到位。

1、自动化,架构,预期应用越来越系统化,算法的影响(马克.舒伦伯格,2021)

2、自由裁量权的转移,决策成为分类问题么不是个案的判断问题(peeters,2018)

3、将算法视为官僚机构(Caplan,2018),算法的特点是简化与闭合(Kallinikos,2005),隔离式适和黑箱式顺序操作,确保执行不受干扰(Gajduschek,2003)。一个依赖算法作为核心管理机制的组织成为数字牢笼(Peeters,2018)。

4、人工智能算法三种应用,资格确定,风险评估,人员管理。(马克.舒伦伯格,2021)

5、数据权力的概念化,信息权力(koopman),阐释权力(harcourt),数据权力(chamayou),心理权力(stiegler)

6、我们被自己的数字数据所定义和和治理(Koopman,2019),控制未来犯罪为目的的预防性防范(Peeters,2013)。

7、算法治理术,某种类型的规范性或基于大数据自动搜集,汇总,分心的政治理性,以便建模、预测和抢险主动的影响可能的行为。(Rouvroy,2013)。

8、机器学习包含问责、平等、正当程序、隐私、透明度和滥用权力的一系列担忧(O’Neil,2016)。

9、机器学习算法的用户可以确信其结果接近准确的预测,但无法准确理解这些算法能呕做出特定结果的原因(coglianess,2019)。

10、美国宪法规定的程序公正测试考虑的三个因素,决策中的私人利益,决策程序的准确性,该程序所需的成本和行政负担(Mathews,1976)。

11、即使机器学习系统依赖有偏见的数据,但在对数据进行统计分析时更容易识别偏见,更容易通过算法的数学调整减少其偏见(Miller,2018),但不能全部抵消(berk,2018)。

12、依赖人在回路外(Human-Out-of-the-loop)算法系统的政府官员感到困惑,成为使用最大限制的价值完整性问题和价值精确度问题。

13、有能力的人来负责设计工具,并对其进行评估,确保其按预期设计来工作(Coglianese,2018)。利用人的专业知识进行也个测试,为设计提供更多反馈,让设计师了解系统完全实施后的工作方式(chien,2019)。算法系统应定期接受评估,确保按预期设计在运行,并在事实上改善现状(Coglianese,2011)。

14、维持公民信任的两个先决条件,在算法设计中融入价值观作为组织负责任的先决条件(friedman,2008),向公正说明正确的算法用法,作为问责制的先决调教(Diakopoulos,2016)。

15、影响个人对可信行为和意图感知的因素,可观察的能力、善行和正直(Grimmelikhuijsen,2012)。

16、在行为和决策中使用算法已改变其工作程序的一种组织方式时算法运行,算法运行的组成部分,技术、专业技能、信息关系、组织结构、组织政策、监督与评估,算法运行概念的理解基石。(阿尔帕特.梅杰)。

17、组织中的责任和负责任创新,关键要素:伦理判断,以价值观为基础,对相关事实的感知,实时注意的义务,通过有回应的路径。基于这些要素,负责任的算法运行,对给予算法运行的可能影响有充分的了解,成分衡量涉及其使用的伦理困境,通过对卷入的各种其他行动者负责任的方法,确保算法运行尊重对他人的伦理义务和伦理传统。(阿尔帕特.梅杰)。

18、可问责的算法运行可以被定义为组织使用算法的正当理由以及向提出问题,做出判断或施加影响的问责机制解释其结果(wieringa,2020)。

19、善治原则规范了行政决策中个人自由裁量权的使用,以及设计了公平和透明的行政程序,这是法律普遍规则在普遍和可预测的规则与个案的具体情况之间取得平衡的两个主要机制。算法面临“隐藏问题”(Danaher,2016),数据未经同意的使用以及分析数据程序不透明(Grimmelikhujisen,2014),隐藏分析和归纳的伦理维度(Kallinikos,2005),连续过程中自动决策减少基层自由裁量空间(Bovens,2002),为人类提供建议到无需人工监督或决策完全自动化(Citron,2014)。

20、善治的原则,正当程序原则,问责制原则,比例原则。(阿詹.威德拉科)

21、基于特定阶层或其他群体成员的身份对某一个人采取行动在法律和道德上都是错误的(Simmons,2018),使用群体数据对个体做出决策的决定是偏见的“基础层”,这是其他偏见层(如偏见数据或偏见模型的基础)(Laurel,2019)。

22、表面上,智慧城市的主要目标是创建高效,可持续发展的城市,但究其根本,他首先是在巨大市场中获得主导地位的战略性工具(soderstrom,2014)

23、智慧城市通常被看作定义模糊、不精确的概念,智慧城市范式可以视为跨国公司进一步强化城市内部私人影响力的更直接的关键工具术语(Greenfield,2013)。

24、技术冲击是基于对数据驱动城市主义伦理的普遍关注,以及基于控制论和技术解决方案治理形式最终能否与多元、开放的民主社会兼容(Kitchen,2106)。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多