康奈尔大学发布了一份关于教育和教学中使用生成式人工智能(GAI)的报告。该报告由来自不同学科的教师委员会撰写,提供了将GAI工具融入教学和学习的指导方针和建议。 GAI是一种能够生成逼真和富有创意的内容,如文本、图像、代码和音乐的技术。报告承认GAI对于提高学习成果、增加无障碍性和培养创造力有潜在的好处。但是,它也警告了GAI带来的风险和挑战,如学术诚信的违反、隐私和知识产权的问题、数据质量和偏见的问题,以及道德和社会的影响。 报告提出了一个灵活的框架,让教师可以根据课程或作业的学习目标,选择以下三种政策中的一种:禁止、允许并注明出处、或鼓励。选择取决于课程或作业的学习目标,教师应该明确地向学生传达他们的期望。报告还提供了不同领域中使用GAI的例子和场景,如写作、艺术、社会科学、数学、工程、计算机科学和法律。 报告最后对教师和管理层提出了具体的建议,以采取积极的态度来应对GAI在教育中的使用。它建议更新学术诚信守则,明确和具体地说明关于GAI使用的规定;为教师提供支持,帮助他们重新设计课程和评估方式;制定数据质量和公平性的最佳实践;并监测GAI技术的新进展。以下为谷歌翻译全文。 -Moodboard/getty - CU 委员会报告:教育和教育学的生成人工智能 主席: Kavita Bala、Alex Colvin
执行摘要教育工作者在考虑课堂学习目标时必须考虑生成人工智能(GAI),因为这些技术不仅会出现在未来的工作场所,而且已经被学生使用。虽然这些工具有机会为个别学生定制学习体验,并有可能提高可访问性,但它们也存在风险。最明显的风险是 GAI 工具可用于规避学习,但它们也可能隐藏偏见、不准确和道德问题,包括侵犯隐私和知识产权。为了解决 GAI 的风险,同时最大化其收益,我们提出了一个灵活的框架,教师可以在其中选择禁止、允许归因或鼓励盖伊使用。我们讨论这个框架,同时考虑学术诚信、可访问性和隐私问题;举例说明该框架如何与不同的学习领域广泛相关;并为教师和行政人员提出建议。 第 1 节:简介随着 ChatGPT、Bard 和 Dall-E 等技术的引入,生成人工智能 (GAI) 引起了极大的关注。这项新技术刺激了亚马逊、谷歌、微软的重大投资,并催生了许多新的初创公司。尽管人们对 GAI 颠覆各个行业的潜力感到非常兴奋,但许多人对其有害使用的可能性表示严重担忧。这种兴奋和担忧在教育领域得到了回应。 2023 年春季,康奈尔大学政府组建了一个委员会,制定康奈尔大学使用 GAI 进行教育的指南和建议,费用如下:
推荐在教育环境中安全有效使用人工智能技术的指南。为教育环境中人工智能技术的使用的持续评估和改进提供建议。 该委员会包括广泛的跨大学学科的教育工作者。通过 2023 年春季的一系列会议,委员会制定了本报告中分享的指导方针。 机遇: GAI 被誉为教育领域潜在的范式转变。建议的好处包括为所有学习者提供符合其个人需求的定制学习体验;为有学习障碍、焦虑或语言障碍的学生提供更多便利;允许教师对迭代学习和写作改进提出建设性批评;协助完成多个领域的任务,包括编码、创意创作等。 担忧:目前,GAI 输出可能包括不准确的信息、有毒的输出、训练过程中嵌入模型的偏差以及材料和图像版权的侵犯。学生可以使用 GAI 来规避课堂学习和评估的过程。如果 GAI 工具可以服务于学习成果,那么缺乏所有学生负担得起的机会可能会加剧系统性不平等。此外,过度依赖这些工具可能会削弱学生与教师和同学互动的能力和意愿。 建议
我们建议教师在个人作业或课程中考虑三种政策。
路线图。我们的报告结构如下。在第 2 节中,我们对以下内容进行了简要、高层次的概述: 各个领域的生成式人工智能技术,附有附录 A 中详细资源的链接。在第 3 节中,我们提出了上述三项政策的指南,包括对学术诚信和可访问性问题的讨论,以及各种风格用例的示例和建议不同学科的教学(在附录 BG 中进一步扩展)。在第 4 节中,我们对教师和行政人员提出了具体建议,并在第 5 节中总结了我们的讨论。 第 2 部分:生成式 AI 的功能和限制去年,生成式人工智能的能力发生了质的飞跃,即使是经验丰富的人工智能研究人员也感到惊讶。这些工具在使用和培训方面具有某些共同点,但在功能、用例和可用性方面也存在重大差异。自然语言的生成人工智能模型,例如 ChatGPT 或 Bard,被称为大型语言模型 (LLM),并在海量文本数据语料库上进行训练。另一种不同的方法是扩散,用于通过在大量图像数据(包括艺术品)上训练的模型来生成图像。这些系统的功能在未来几年可能会发生巨大变化。虽然我们在附录 A 中提供资源来调查现有模型,但我们并不希望这些资源是全面的,而是提供功能和通用模型的快照,以将报告建立在特定方法的基础上。附录 A 详细介绍了如何针对文本、代码、图像和其他模式等各种领域训练这些模型,以及当前如何向用户提供该技术。 当前一代 GAI 基于大规模深度神经网络。虽然这项技术并不新鲜,但模型设计、硬件和聚合大量训练数据的能力的最新发展使得创建更大几个数量级的模型成为可能。这些模型是经过预训练的,这意味着它们适合大量人类生成的示例。可用数据越多,训练数据的精度、细节和记忆以及基于抽象模式的概括能力就越好。获取数据来训练更好的模型引发了许多有关 GAI 的道德问题,包括(但不限于):侵犯版权;来自训练数据的偏差,甚至毒性;以及模型输出中的剽窃形式。然而, 当前的 GAI 提供了即使在本世纪初也无法想象的功能。最流行的使用模式允许用户使用自然语言“请求”输出,然后根据系统的输出细化这些请求。系统可以以维基百科页面的风格对历史事件进行流畅、符合语法、详细且基本准确的描述,而不包含原始页面中实际出现的任何句子。当提示计算过程和用户界面的描述时,系统可以生成可执行程序代码,这些代码可能来自 Stack Overflow 帖子或 GitHub 存储库,但实际上不会出现在这两个服务中。扩散模型可以产生“刺猬以波提切利风格驾驶火车”的图像,而这些图像实际上从未存在过。这些工具令人信服、立即令人满意的性质导致 GAI 几乎在一夜之间从一个利基研究领域爆炸性地发展到流行文化。 了解 GAI 技术的局限性。 新用户通常过于信任 GAI 模型。虽然聊天机器人越来越多地接受培训以避免低可信度的陈述,但法学硕士会使用看似合理且听起来自信的语言来回答问题并证明他们的答案,无论现有证据的质量如何。法学硕士只有一个功能:给定对话历史,他们可以预测对话中的下一个单词。因此,如果被要求证明合理的回应,法学硕士通常会根据其培训数据提供听起来合理的答案。然而,当被要求证明一个无意义的响应的合理性时,它会使用相同的技术,从而得到一个听起来合理但错误的答案。 用户还经常高估 GAI 的能力,认为他们可以很好地完成当前计算系统擅长的某些计算任务;例如,数学计算或查找参考文献。但在撰写本文时,GAI 模型无法对浮点数进行数学推理,尽管它们为复杂的三角问题提供了不正确但听起来很自信的答案。GAI 模型还可以流畅地创建看似合理但虚假的学术和其他参考资料。然而,开发人员正在积极努力使用更传统的工具(计算器、搜索引擎)来增强 GAI 来解决这些问题,因此随着时间的推移,GAI 模型可能会变得更加可靠。 第 3 节:教育环境指南和建议康奈尔大学的教育环境差异很大:从大型演讲厅到研讨会,从实验室、现场或工作室课程到临床和实习环境。生成式人工智能几乎在所有这些环境中都有潜在用途。例如,教育工作者可以使用 GAI 来制定讲座大纲和材料、生成多个版本的作业或编写练习题。学生可以使用 GAI 研究主题和领域、迭代文本以改进书面作业、编程、设计和创建代码、艺术和音乐以及许多其他用途。然而,根据用途的不同,GAI 最终可能会“完成作业旨在引发的学习”,或者扭曲评估的价值,具体取决于学生对 GAI 工具的使用情况。 为了应对这些风险并利用这些机会,教师应根据 GAI 的出现重新评估每个班级的学习成果。为此,他们应该考虑对未来课程的期望,这些期望可能建立在他们的课程预期在学生中培养的理解和知识的基础上;未来工作场所对员工负责任且合乎道德地使用 GAI 工具的期望;以及有目的地使用 GAI 工具来辅助学习的新机会。 将计算器引入数学教育提供了一个有用但不完美的类比。小学生仍然学习如何进行长除法和乘法。然而,一旦学生掌握了这些技能,计算器就会在更高级别的课程中使用,让学生解决复杂的问题,而不会因为算术细节而放慢速度,并教导学生使用计算工具来协助解决难题。数学教育课程已经适应了计算器的日益普及,首先优先考虑学生在没有计算器的情况下学习基本技能,然后允许和/或鼓励使用计算器来支持更高水平的学习。 第 3.1 节:学术诚信和可及性关于人工智能使用的一个主要担忧是,当学生使用这些技术来完成作业时,可能会违反学术诚信,而作业本身就是为了培养技能;例如,练习问题集,或在学生继续更高水平的学习之前评估基本技能。在这些情况下,可能会适当禁止使用 GAI 工具。第二个值得关注的领域是,学生是否在使用这些工具时没有正确引用它们,和/或没有质疑产生内容的基本机制或假设。在这种情况下,学生需要学会适当地归因和批评这些工具是关键。然而,也有一些情况应该鼓励使用 GAI; 例如,促进作业的普遍可及性,或提供增强高水平学习并让学生更具创造力和生产力的工具。下面,我们依次讨论这些选项,同时牢记明确的政策和流程对于建设性的学习环境以及教师和学生之间的信任至关重要。 第 3.1.1 节:禁止 GAI 工具目前免费访问至少有限版本的 GAI 工具极大地加剧了人们的担忧,即学生可能会因为将人工智能生成的内容作为自己的内容而违反学术诚信原则。ChatGPT 几乎可以立即完成学生作业,这对于面临优先事项竞争或最后一刻截止日期危机的学生来说更具吸引力。 鉴于法学硕士的广泛使用,自然需要有工具来检测法学硕士输出的内容。为此任务开发了许多不同的工具,包括TurnItI、GPTZer和OpenA分类器。然而,在缺乏其他证据的情况下,技术方法目前对于规范人工智能在课堂上的使用并没有太大帮助。LLM 的目标是生成具有与自然语言相同的统计特性的文本,随着 GAI 的改进,使检测问题变得对抗性。法学硕士很少输出长文本片段,这些文本片段是现有内容的逐字副本,这是传统抄袭检测的基础。因此,尝试识别 GAI 生成的文本只能通过统计来完成。这种方法很可能会继续产生误报和漏报,并且不能果断地提供学术诚信违规的证据。目前使用这些方法可能会导致不公平地识别学术诚信违规行为(例如,对非母语人士的偏见), 另一种潜在的补救措施是 GAI 提供商明确限制其系统的输出,以防止他们回答常见的基本作业问题,类似于问题论坛处理作业问题的方式 。虽然从技术上讲,提供商可以实施这些限制,甚至大学也可以运行自己的受限服务,但事实证明,这些障碍并不是万无一失的。现在有许多记录在案的 GAI“越狱”示例,允许对手绕过 GAI 模型的限制。越狱的工作原理是构建一个长而复杂的提示,可以将其输入到模型中,使其忽略其约束并以替代方式生成。越狱已被用来规避某些主题或行为的禁令,例如宣扬暴力;然而,它也可以很容易地用于获取家庭作业的答案。 除了对其他学生和教师公平之外,一个首要问题是,如果学生依赖 GAI,他们将不会进行学习所需的实践,也不会对自己掌握所需知识或技能的能力充满信心。教师应向学生传达为什么必须在没有“捷径”的情况下完成作业才能达到学习成果;为什么达到特定的学习成果对于学生的学业和个人成长是必要的;以及为什么违反学术诚信行为对学生个人以及康奈尔大学及其他地区的更大的学习社区如此有害。 教师可以采取其他措施,通过转向不太适合 GAI 模型的评估和作业来避免违反学术诚信的风险;例如,使评估更贴近课堂内容;或将评估从带回家的评估转移到课堂上,例如定时口语和笔试,或课堂书面论文。这些形式的评估可能会对残疾学生产生不成比例的影响,尽管延长时间和无干扰测试区等调整措施可能有助于解决这些问题。我们在下面探讨了 GAI 支持不同残疾学生的动态潜力;然而,我们也注意到,过度依赖这些工具可能会使这些学生处于更大的劣势。与与教师和其他支持系统的互动相比,残疾学生可能更喜欢使用这些工具,并依赖 GAI 来满足他们的需求,尤其是在缺乏更全面的课堂访问的情况下。他们在证明自己没有违反学术诚信标准方面也可能面临更大的脆弱性。 第 3.1.2 节:GAI 使用中的归属、作者身份、访问和责任GAI 是一项发展非常迅速且处于不断变化状态的技术。虽然公司正在迅速努力识别和解决所发现的问题,但对于讲师来说,了解使用当前可用的 GAI 所涉及的风险非常重要。如果教师决定在教学中使用或允许使用 GAI,教师必须教育学生了解这些风险,并制定计划以减轻课堂风险的负面影响。 GAI 工具会带来潜在的隐私风险,因为共享的数据可能会被提供服务的第三方供应商用作培训数据。因此,教育工作者有义务保密的任何信息,例如根据《家庭教育权利和隐私法案》(FERPA) 或《健康保险流通和责任法案》(HIPAA),不应与此类工具共享或上传到这些第三方工具。GAI 的派对供应商。 GAI 工具也对知识产权产生影响。康奈尔大学、我们的学生或员工拥有的原创研究或内容不应上传到这些工具,因为它们可能成为 GAI 工具使用的培训数据的一部分。这些包括学生作业、项目或研究小组中产生的数据、包含个人身份信息的数据、来自研究合作伙伴(例如公司)的可能包含专有信息的数据、可能受版权保护的数据等。 如果某个班级希望使用 GAI,那么重要的是要确保所有学生都能平等地使用该技术,而不会造成访问差异的成本障碍。使用GAI工具的许可协议应由机构提供或协商,同时确保这些工具不会限制大学的教育活动和学术自由,尊重隐私和知识产权,并且不会施加成本障碍或限制。 在撰写本文时,美国教育部发布了一份新报告,鼓励制定促进学习成果的政策,同时保护人类的决策和判断;专注于人工智能模型的数据质量,以确保教育应用中决策的公平性和公正性;了解对公平的影响并更加注重促进学生的公平。我们同意这些重要的考虑因素,并期望康奈尔大学的研究人员和教育工作者将为 GAI 的这些改进做出贡献。 第 3.2 节:鼓励负责任地使用 GAI 工具GAI 将不可避免地成为未来工作场所的一部分,因此成为所有人都可以使用的工具学生最终需要学会正确使用。因此,教师现在有责任指导和指导学生以合乎道德和富有成效的方式使用 GAI 工具,这些工具在他们离开康奈尔大学后的职业生涯中将变得越来越普遍。GAI 还有潜力为残疾学生提供支持,特别是那些在认知处理和注意力集中、“社交脚本”(即神经典型的沟通方式)和焦虑方面遇到困难的学生。上面我们已经讨论了依赖 GAI 的一些危险,这些危险会对学习产生反作用。然而,教师也必须认识到残疾学生面临的障碍,以及 GAI 工具如何帮助课堂上所有学生实施和维持更全面的访问和包容模式。 下面,我们确定了一系列不同研究领域的设置,其中使用 GAI 可以推进教学目标和学习目标,并根据每个类别的不同需求提出建议。附录BG提供了详细的例子。该列表并不详尽,但可以帮助各个学科的教师确定直接的实际用例。虽然我们看到了 GAI 在教学中发挥作用的一系列可能方式,但常见的主题包括:
我们现在描述不同学科和研究领域的用途。 第 3.2.1 节:培养写作技能的课程(例如写作研讨会)GAI 工具提供了通过协助规划、提纲、编辑以及提供个性化反馈来帮助学生发展写作技能的机会。然而,在写作过程中使用 GAI 生成文本和编辑引起了人们对作品归属、学术诚信、抄袭以及未能发展基础和高级写作技能和判断力的主要担忧。写作中的创造力和原创性是关键的学习成果,但在写作过程中对 GAI 的依赖可能会威胁到这些成果。鼓励指导性使用 GAI,将其视为进一步而非破坏学习成果的最佳方法。示例包括使用 GAI 来:生成书面报告大纲供学生练习修改;总结学生组织并确定优先顺序的会议记录中的主题;集思广益,学生然后评估想法;或生成供学生验证和评估的来源列表。附录 B 概述了详细的示例和场景。 3.2.2节:音乐、文学、艺术创意课程艺术、音乐等创意领域长期以来一直在讨论什么是“原创作品”以及技术如何增强创造力。从业者,包括学生,都非常积极地发展自己的技能,但也可能渴望使用新技术进行创造。虽然有很多机会,但人们对来源的道德归属和侵犯版权仍然存在担忧。这是一个不断发展的领域,公司试图将归因添加到其流程中。目前已经存在使用 GAI 进行创意头脑风暴或最终工件开发的案例,作为合作伙伴以实现艺术家更高水平的创作以及许多其他用途。学院的其他成员可能会向创意领域寻求帮助,通过他们自己的学科考虑来思考 GAI 工具如何改变原创作品的概念。 第 3.2.3 节:社会科学课程在社会科学领域,GAI 的出现引起了人们对书面作业、家庭作业、论文和考试的特别关注,这些是许多课程中学生作业的核心组成部分。学生被动依赖 GAI 来生成文献综述或书面作业,可能会破坏作业的学习目标、作业质量低劣以及违反学术诚信标准。还鼓励教师探索有目的地将 GAI 纳入社会科学课程的方法,以增强学生的学习。这可以包括让学生评估 GAI 的输出并探索测试其有效性的方法。附录 D 和附录 B 讨论用例。 第 3.2.4 节:数学、物理科学和工程技术和数学课程过去已经进行了很好的调整,以融入计算和可视化工具等新技术。GAI 可以提供类似的机会来加强数学、物理科学和工程领域的教育。例如,学生和教师可以使用法学硕士进行解释,或使用法学硕士来合成代码以支持数据分析和可视化。当前系统的一些最大问题是它们的不准确性(“幻觉”)和循环推理。教师应该让自己了解当前系统的功能以及这些系统在数学和工程问题上快速变化的行为。我们建议对学生进行有关这些系统的功能和局限性的教育,禁止在需要发展基本技能的情况下使用它们,并鼓励在法学硕士可以改善学生学习的情况下使用它们。附录 E 给出了该领域课程用例的详细示例。 第 3.2.5 节:编程课程GAI 已在工业界广泛使用,通过 GitHub Copilot 等应用程序协助编码。法学硕士在编程教育中的机会存在于:从规范生成代码(文本到代码)、生成测试等辅助工具(代码到代码)以及生成解释或建议(代码到文本)。然而,令人担忧的是,学生将依赖 GAI,而不会学习生成可工作、可理解和可更新的代码所需的技能。他们可能无法超越人工智能系统所青睐的解决方案,无法识别和解决问题,或者在最坏的情况下,甚至无法认识到替代方案的存在。我们建议在高级课程中使用 GAI 作为编程导师或帮助者,但不要作为代码的唯一创建者。详细信息请参见附录 F。 第 3.2.6 节:法律课程对于法律而言,GAI 威胁到了带回家考试的完整性,而带回家考试是许多课程的共同特征。对于基础课程,特别是第一年的核心课程,建议使用现场笔试,并限制访问互联网和访问 GAI 的能力,以确保考试的有效性和完整性。与此同时,GAI 工具在法律实践中的使用越来越广泛,在法律教育中解决这一转变非常重要。这可以通过在第二年和第三年的课程中明确讨论 GAI 在法律实践中的使用来实现,包括在法律研究和写作课程中检查这些工具。法律纪律和实践的强大道德核心应体现在如何处理 GAI 中。附录 G 进一步阐明。 第 3.3 节:教师使用 GAI 创建课程内容教师可以使用 GAI 来创建内容;例如,作为课程结构/教学大纲、讲座结构、示例、图表等的初稿。教师还可以生成大量练习问题或评估问题,但验证分配给学生的任何问题的准确性很重要和适当性。 如果教师选择使用 GAI 制作课程材料,我们建议他们也遵循归因准则。这样,教师就可以为学生示范如何使用 GAI 进行归因。这也将使学生清楚地了解哪些地方没有使用 GAI,并避免学生认为他们所获得的教育材料未经教师亲自创建或审查。 虽然 GAI 在协助为低风险形成性评估(例如实践问题)提供反馈方面可能具有选择性效用,但我们目前不建议将其用于学生作业的总结性评估。对学生的评估和评分是教师最重要的任务之一,评分过程的完整性取决于教师的主要作用。 第 4 节:对教师和行政人员的建议基于上述机遇和担忧,我们认为,GAI 技术的使用可以以增强学习目标的方式融入教学,但这些实施必须伴随着提高学生理解和学术诚信实践的策略。这些策略可能包括:1)指导学生学术诚信的必要性及其构成;2)指导学生进行符合学术诚信的学术和应用实践;3) 澄清教师关于学习成果的意图。应教导学生为什么以禁止的方式使用 GAI 不仅不道德,而且还会对学习基本内容和技能产生反作用。此外,教师必须指导学生使用 GAI 的最佳实践。 我们向教师提出以下建议:
教学创新中心可以向院系和个别教师咨询如何最好地实施这些建议。 我们向大学管理者提出以下建议:
具体来说,将教学实践与通用 学习设计 (UDL)结合起来可以促进所有学生更充分的接触和包容。虽然这确实需要重新思考当前的课堂和评估实践设计,但这样做可以实现双重目标:为学生提供更多机会以及将人工智能工具适当集成到课堂中。 最后,GAI 技术的能力和普及度不断提高。科技公司正在积极努力将 GAI 融入其产品的各个方面,这使得避免甚至识别其用途变得越来越困难。本报告中的建议应该为当前和未来的行动提供一个框架,但它们并不是最终的结论。必须制定适当的程序来监控新进展、广泛传播新能力以及调整政策和课程技术。 第五部分:结论随着时间的推移,生成式人工智能工具对教育的影响可能会越来越大。这些工具的使用已经威胁到一些标准的教育方法,并对学术诚信构成挑战。与此同时,GAI 很可能成为跨许多领域的重要工具,学生必须了解它的优点和局限性。如果经过深思熟虑和有目的地使用,GAI 有潜力提高教育成果。出于这些原因,我们建议康奈尔大学采取前瞻性方法,将 GAI 的使用或不使用具体纳入学习目标。 我们对教师的核心建议是,他们根据 GAI 工具重新考虑自己的学习目标,并将有关 GAI 使用的明确指示纳入他们的教学大纲和作业中。我们建议教师根据课程或作业的学习目标正式采用三种不同方法中的一种。
我们对管理部门的核心建议是为教师提供物质支持,帮助他们努力使个别课程适应 GAI 工具的新现实。例如,行政部门应为实施新的作业和评估机制提供帮助,在课程重新设计需要时提供额外的助教支持,并在教师实施学生可能不熟悉、最初可能不受欢迎的新教学技术时提供支持。 为了引导学生从 GAI 中获得增强高阶思维和学习的潜在益处,并避免 GAI 破坏关键技能和知识获取的危险,康奈尔大学必须采取积极主动的方式在教育中使用 GAI。我们的学生需要了解 GAI 的价值和局限性,不仅因为他们在未来的职业和生活中会经常遇到它,而且因为其中许多人可能会指导其未来的开发和使用。 作者:CU Committee | 译者:Google 原文: https://teaching./generative-artificial-intelligence/cu-committee-report-generative-artificial-intelligence-education |
|