分享

期刊研究 | ChatGPT对学术期刊的影响及应对策略研究

 出版与印刷 2023-11-03 发布于上海

核心观点

  • ChatGPT强大的搜索能力和逻辑推理能力,使其具备了学术文本生成能力,给学术期刊的发展带来挑战 。ChatGPT的出现,增加了对学术不端行为的甄别难度,降低了学术生产的门槛,有可能引发更多隐私安全问题。因此,学术期刊一方面要积极拥抱新技术,探索ChatGPT在学术生产中的可能应用;另一方面也应充分考虑ChatGPT在学术期刊领域可能引发的负面影响,有效控制其无序发展,避免其对学术生态造成威胁和破坏,影响学术期刊的良性发展。

  • ChatGPT对学术期刊的主要影响包括:(1)增加学术不端行为的甄别难度。由于 ChatGPT具有强大的文本生成能力和逻辑推理能力,可以生成高质量、逻辑严密的文本,因此辨别由ChatGPT生成的文本内容难度较高,在学术审稿环节中,识别论文文本是否由ChatGPT生成将变得更为困难。(2)弱化学术责任,扰乱学术生态环境。ChatGPT“参与”写作,还可能带来学术责任分散的风险,导致问责无法落实到具体的个人。过多使用 ChatGPT,还会导致作者对ChatGPT形成依赖,削弱作者的创造能力。(3)增加学术共同体的不信任感,引发隐私安全问题 。由于ChatGPT生成文本的准确性和可靠性尚不能保证,如果在学术研究中广泛使用ChatGPT,可能增加学术共同体成员之间的不信任感。还可能造成涉密信息和数据泄露的风险。

  • 学术期刊应对ChatGPT的策略建议:(1)探索人机协同工作模式,强化对学术不端 行为的问责机制。以 ChatGPT 为代表的人工智能可以辅助科研工作者进行 文献搜集等工作,对学术期刊来说,在学术出版的各个阶段都可以考虑如何有效利用 ChatGPT。为防止ChatGPT对学术生态造成负面影响,学术期刊应加强对学术不端行为的审查,从根本上杜绝学术研究中的不正之风。(2)制定出版政策,规范人工智能工具的使用。相关政策制定相对滞后,监督机制尚未建立,难以有效应 对ChatGPT赋能学术生产可能导致的新型道德伦理问题。学术期刊界需要制定共同的行业道德标准、树立一致的价值理念、建立ChatGPT等人工智能使用的伦理和准则,提出一套相对完善、可操作、兼顾工具理性和价值理性的实操框架。(3)加强用户隐私保护,保障数据安全。在国家层面,应该通过立法保护用户的隐私和数据 安全。在行业层面, 学术期刊应遵守行业底线,担负起保护用户数据和隐私的社会责任。在个人层面,用户需要主动提高隐私保护意识。

题目 | ChatGPT对学术期刊的影响及应对策略研究

来源 | 《出版与印刷》2023年第4期

作者 | 张璐1)2), 郭晓亮1), 景勇1), 孙俊3)

作者单位 |1)沈阳工业大学学报编辑部;2)沈阳工业大学管理学院;3)辽宁能源投资集团辽宁省城乡燃气股份有限公司

Doi | 10.19619/j.issn.1007-1938.2023.00.043

基金项目:辽宁省社会科学规划基金重点项目“我国学术不端的系统治理与联合预防”(编号L22AXW005),“融媒体时代学术期刊全球开放获取发展路径与趋势研究”(编号L20AXW002);辽宁省教育科学“十四五”规划项目“基于征信的学术诚信保障体系构建”(编号JG21DB410);辽宁省教育厅科学研究经费服务地方项目 “融媒体视角下学术期刊开放获取发展路径与趋势研究”(编号WFGD202001)

引用参考文献格式:

张璐, 郭晓亮, 景勇, 等. ChatGPT对学术期刊的影响及应对策略研究[J].出版与印刷,2023(4):91-96.

摘要 | 规避ChatGPT等人工智能工具不当使用所带来的风险,助力学术期刊高质量发展。ChatGPT在学术领域的不当运用,给学术期刊带来了一些负面影响和挑战,具体包括:增加学术不端行为的甄别难度;扰乱学术生态环境;增加学术共同体的不信任感,引发隐私安全问题。为应对这些问题,提出以下建议:探索人机协同工作模式,强化对学术不端行为的问责机制;制定出版政策,规范人工智能工具的使用;加强用户隐私保护,保障数据安全。

关键词 | ChatGPT;人工智能;学术期刊;学术出版

→ 查看HTML全文

生成式人工智能ChatGPT(Chat Generative Pre-trained Transformer)自发布以来,迅速风靡全球,广泛应用于金融、教育、传媒等领域。壹点智库研究员运用壹点智库“传播力测评工具”对ChatGPT进行传播力测评发现,仅2022年11月至2023年2月,关于ChatGPT的信息传播总量就达到2 829 057条,其网络传播影响力指数的月度平均传播广度值达到5.24,根据信息传播广度等级的划分标准,可将ChatGPT的信息传播广度认定为最高级——爆发级。[1]ChatGPT使用大规模的预训练模型和海量的语料库来学习自然语言的语法、语义和上下文,具有强大的语言处理能力和逻辑能力,在全球产生了广泛影响。ChatGPT强大的搜索能力和逻辑推理能力,使其具备了学术文本生成能力,给学术期刊的发展带来挑战。学术期刊是学术活动和学术研究成果的展示平台,ChatGPT的出现,增加了对学术不端行为的甄别难度,降低了学术生产的门槛,有可能引发更多隐私安全问题。因此,学术期刊一方面要积极拥抱新技术,探索ChatGPT在学术生产中的可能应用;另一方面也应充分考虑ChatGPT在学术期刊领域可能引发的负面影响,有效控制其无序发展,避免其对学术生态造成威胁和破坏,进而影响学术期刊的良性发展。

一、ChatGPT的出现与应用

ChatGPT是由美国人工智能研究实验室OpenAI研发的聊天机器人程序。作为一款由人工智能技术驱动的自然语言处理工具,ChatGPT被认为是人类科技的又一个“技术奇点”,其使用处理序列数据的Transformer神经网络架构,能够通过学习和理解人类的语言,连接大量来自真实世界中形成的语料库,使用英语或其他语言就用户感兴趣的话题展开深度交流。[2]不仅如此,ChatGPT还能够撰写邮件、视频脚本、文案、代码,为用户提供翻译、绘图、撰写论文和诗句等服务,可谓是一个“全能者”。截至2023年1月,ChatGPT的月用户数已突破1亿人次,成为历史上增长最迅速的消费者应用程序。据调查,美国有89%的大学生曾利用ChatGPT完成作业。[3]以色列总统赫尔佐格(Isaac Herzog)更是利用ChatGPT撰写演讲稿件,成为全球首位公开使用ChatGPT的国家领导人。[4]ChatGPT在短时间内能够在全球掀起风暴是因为其广泛的应用领域。[5-6] 作为一种机器学习系统,ChatGPT可以在大量文本数据集上进行训练后,完成复杂且智能的写作。例如,在医疗领域,应用ChatGPT生成简洁的出院小结和检查报告,可节省人力成本,为医护人员腾出宝贵的时间;[7]在工程管理领域,应用ChatGPT可为简单的建筑项目生成施工进度表;在学术研究领域,ChatGPT可用于学术论文摘要的撰写和文献的搜集工作。[8]

二、ChatGPT对学术期刊的主要影响

1.增加学术不端行为的甄别难度

ChatGPT可以基于大量的互联网文本数据进行训练,根据用户给定的上下文或者提示生成类似于人类撰写的文本,内容可涵盖各种主题,并支持多种不同的语言和风格。使用ChatGPT进行AI对话时,用户可以简单地描述想要其完成的任务,让ChatGPT按照所提供的主题写作。例如,用户可以发出指令“写一篇关于ChatGPT的文章”;也可以进一步要求其按照提供的框架进行写作,例如“介绍ChatGPT的由来,围绕其使用的技术和算法、应用领域、未来前景等写一篇文章”;还可以接着提出补充要求,如“将文章增加至1000字”;等等。通过这些操作,用户可以对ChatGPT进行精准且有效的引导。[9]操作的便利、性能的卓越以及极低的应用成本使ChatGPT被大量应用于学术写作。但如果不加限制地将ChatGPT滥用于学术写作,就会造成抄袭泛滥,导致学术不端行为的发生。

由于ChatGPT具有强大的文本生成能力和逻辑推理能力,可以生成高质量、逻辑严密的文本,因此辨别由ChatGPT生成的文本内容难度较高。有研究者曾经做过一个实验,将作者原创的摘要和ChatGPT根据论文内容生成的摘要交予专业审稿人审读并进行辨识,结果32%的由ChatGPT生成的摘要被审稿人识别为原创的论文摘要,14%的原创论文摘要被审稿人识别为ChatGPT生成的摘要。[10] 这意味着,仅仅依靠审稿人已较难识别论文的哪些内容是由作者原创,哪些内容是由ChatGPT生成的。由此可以预见,未来随着ChatGPT的发展和更迭换代,在学术审稿环节中,识别论文文本是否由ChatGPT生成将变得更为困难。这将大大增加学术期刊甄别学术不端行为的难度,从长远来看将影响学术期刊的高质量发展。

2.弱化学术责任,扰乱学术生态环境

ChatGPT借助海量数据,应用语言训练模型,可以接受和输出多种语言文本,表面上降低了知识生成和共享的门槛,但由于ChatGPT尚未发展完善,被应用于论文写作时,往往会给出一个看似合理但却经不起推敲甚至荒谬的答案,有时还会杜撰一些事件或未经证实的研究成果。实际上ChatGPT生成的文本中常常存在错误和有违学术伦理的内容,如果作者在学术研究中不当使用ChatGPT,学术期刊审稿人又未能及时识别,就可能导致这些错误内容的传播,扰乱学术生态环境。

此外,ChatGPT “参与”写作,还可能带来学术责任分散的风险,[11]如果ChatGPT生成的文本出现问题,有可能导致问责无法落实到具体的个人。更重要的是,在论文写作过程中过多使用ChatGPT,会导致作者对ChatGPT形成依赖,削弱作者的创造能力。长此以往,可能产生大量由ChatGPT拼凑而成的“学术垃圾”,看似“形式规范、论述严谨”,却经不起推敲,更谈不上学术创新,严重影响整个学术生态的良性发展。

3.增加学术共同体的不信任感,引发隐私安全问题

随着语料库的不断扩容,ChatGPT的深度学习特质和高度仿真性,使其在人机互动时越来越接近人类思维,表现出更高智能。未来,不仅作者应用ChatGPT来撰写论文,同行评审人也可能借助ChatGPT审阅稿件、提供审稿意见。由于ChatGPT生成文本的准确性和可靠性尚不能保证,如果在学术研究中广泛使用ChatGPT,可能增加作者、评审人、编辑、读者等学术共同体成员之间的不信任感。

ChatGPT拥有强大的逻辑推理能力和“万能计算能力”。当用户首次使用该程序时,需要对个人信息进行登记,以便在系统中建立个人账户,为系统的大数据算法和智能推理等核心功能提供必要的信息。这一操作就可能引发隐私安全问题。若该研究者之后使用ChatGPT辅助学术创作时,又在系统中提供研究的创作思路、核心观点、创新点等,不仅会引发隐私安全问题,还有可能造成涉密信息和数据泄露的风险。

三、学术期刊应对ChatGPT的策略建议

1.探索人机协同工作模式,强化对学术不端行为的问责机制

当前,人工智能技术正从“弱人工智能”模式向“强人工智能”模式转变,以ChatGPT为代表的人工智能可以辅助科研工作者进行文献搜集,快速找到与投稿方向相适应的学术期刊,加快学术科研成果的生成和传播。但是,ChatGPT不能完全代替人类完成论文撰写工作,在学术写作中使用ChatGPT必须以人为中心,人工智能为辅助。

对学术期刊来说,在学术出版的各个阶段都可以考虑如何有效利用ChatGPT。例如:在选题策划阶段,可以尝试使用ChatGPT广泛收集信息,形成备选方案,供编辑部讨论和论证,形成最终决策;在同行评审阶段,ChatGPT可以对论文进行分类标引,推荐审稿专家,收集相同主题的论文,辅助审稿专家审阅稿件;在编辑出版阶段,ChatGPT可以替代人工完成大量重复、繁琐的编校工作,如核对参考文献、规范格式、修改错别字、统一表述等,期刊编辑可节省出时间加强期刊内容建设。利用ChatGPT的技术赋能,可以实现对学术期刊出版全流程管控与监测,以提高学术期刊的办刊灵活性,打造人机协同工作模式。[12-13]

ChatGPT广泛应用于学术期刊出版,在提高研究者和编辑工作效率的同时,也不可避免带来抄袭、剽窃等学术不端问题,影响学术环境的公平性。因此,为防止ChatGPT对学术生态造成负面影响,学术期刊应加强对学术不端行为的审查,一旦发现学术不端行为,即可通报给作者所在单位进行内部调查,并在专门的学术不端治理机构(如教育行政部门、高校学术委员会等)备案,请求其跟踪、调查,从根本上杜绝学术研究中的不正之风。

2.制定出版政策,规范人工智能工具的使用

技术在发展,相关政策也应随之调整。毋庸置疑,今后将有越来越多的学者使用ChatGPT生成文本、撰写摘要、生成图表或图片,学术期刊及其主管部门尽快制定关于人工智能辅助学术生产的新政策成为学术界的当务之急。国外著名期刊Science(《科学》)、Nature(《自然》)、Cell(《细胞》)、The Lancet(《柳叶刀》)等最近纷纷更新了出版政策,特别说明了关于人工智能的应用规范。Science发表了一篇标题为ChatGPT is fun, but not an author(《ChatGPT很有趣,但它不是作者》) 的文章,认为如果没有得到明确许可,任何论文都不得使用ChatGPT生成的文本,更不能将ChatGPT列为文章作者。[14]Nature于2023年1月24日发布了类似禁令,即不接受将人工智能模型列为论文作者,不同的是,论文本身可使用人工智能工具产生文本,但应在研究方法或致谢中标示清楚。CellThe Lancet也允许使用人工智能工具,但不能取代文章作者完成关键性任务,作者还必须在论文中声明是否以及如何使用了人工智能工具。同时,针对ChatGPT生成的文本难以辨识这一问题,施普林格·自然(Springer Nature)正在积极研发侦测AI产生文本的工具,以期能对其准确分辨。[15]关于ChatGPT的使用限制也扩展至高校,例如,香港大学禁止学生在课堂、作业和考试中使用ChatGPT等人工智能工具,违规使用将被视为剽窃,如教师怀疑学生使用ChatGPT等人工智能工具,可要求其进行额外加试。[16]

就当前来看,ChatGPT生成内容的最大问题在于其无法代替人类的责任以及知识产权归属问题,也就是说人工智能无法对论文内容的完整性和道德伦理性负责。但人工智能的发展势不可挡,笔者认为,不必完全禁止ChatGPT的使用,要利用其相关优点,推动科技进步和文化传播。目前,ChatGPT正迅猛介入学术研究领域,但相关政策制定却相对滞后,监督机制尚未建立,难以有效应对ChatGPT赋能学术生产可能导致的新型道德伦理问题。除法律法规、管理规范等硬约束手段不健全,关于ChatGPT使用的道德准则和伦理原则等软约束条件也同样欠缺,使在学术研究领域使用人工智能工具的行为尚处于自由生发状态。要解决这些问题意味着学术期刊界需要制定共同的行业道德标准、树立一致的价值理念、建立ChatGPT等人工智能使用的伦理和准则,提出一套相对完善、可操作、兼顾工具理性和价值理性的实操框架,以防止技术的滥用。

3.加强用户隐私保护,保障数据安全

 “没有网络安全就没有国家安全”[17],这无疑强调了网络安全的重要性。作为网络安全的重要组成部分,数据安全受到广大科研工作者的关注,保障数据安全是一项极其复杂的系统工程。在数据隐私和数据安全方面,由于ChatGPT可能在未征得用户授权的情况下收集、处理数据或超范围使用数据,这将带来个人信息和隐私泄露的风险。这一问题已引起各行各业的担忧。同样,ChatGPT的使用也给学术期刊的用户隐私保护和数据安全等带来了诸多隐患。

然而,隐私保护不是一个单一的问题,必须通过国家、行业以及个人等多层面的努力,加强对用户隐私的保护。首先,在国家层面,应该通过立法保护用户的隐私和数据安全。目前,与人工智能使用相关的法律法规不够健全,迫切需要进行修订与完善。只有通过国家立法从根本上保护用户的隐私和数据安全,才能有法可依地打击ChatGPT等人工智能工具对用户个人隐私和个人信息的侵犯。[18]这也是保护学术期刊用户个人隐私和数据安全的重要措施。其次,在行业层面,学术期刊应遵守行业底线,担负起保护用户数据和隐私的社会责任。学术期刊的投审稿系统在登记用户信息时,应秉持“最小收集”原则,充分尊重用户个人隐私,并最大程度地防止用户个人隐私的滥用和泄露。最后,在个人层面,用户需要主动提高隐私保护意识。以ChatGPT的安装为例,用户要想使用该程序模型,需要填写必要的个人相关信息,如联系人、电话、邮箱等,同时需要注明使用ChatGPT的原因及用途。这意味着从此时起,使用者的个人隐私已存在被泄露的风险。为防止ChatGPT等人工智能工具对信息数据的窃取,用户个人需要建立起隐私保护的第一道屏障,主动提高隐私保护意识,在使用结束后可主动删除历史数据。此外,用户进行数据匿名也不失为强化数据安全和隐私保护的一种方法。

、结语

ChatGPT等人工智能工具的广泛应用,给学术期刊带来了许多潜在风险,但挑战与机遇并存,不能因为存在风险就一概否定。ChatGPT如被不加限制地使用,可能对学术研究和学术期刊造成威胁和破坏,影响学术期刊的高质量发展;但如果善加引导,则将助力学术期刊的良性发展。为规避新兴技术使用可能带来的风险,使其发挥积极作用,应从多方面入手,例如通过探索新模式、制定新政策、开发新技术等,使ChatGPT等人工智能工具得到正确使用,为学术期刊高质量发展保驾护航。

参考文献

向上滑动阅览

[1]“ChatGPT”信息何时开始发酵?传播力测评工具带你揭秘[EB/OL]. (2023-02-16)[2023-04-08]. https://baijiahao.baidu.com/s?id=1757981560358711406&wfr=spider&for=pc.

[2]CURTIS N. To ChatGPT or not to ChatGPT? the impact of artificial intelligence on academic publishing[EB/OL]. (2023-02-09)[2023-04-09]. https://www./publication/368393042_To_ChatGPT_or_not_to_ChatGPT_The_Impact_of_Artificial_Intelligence_on_Academic_Publishing.

[3]多数美国学生承认用ChatGPT写作业[EB/OL]. (2023-02-09)[2023-04-09]. https://weibo.com/3266943013/MsQkPoSvy.

[4]ChatGPT:friend or foe? [EB/OL]. (2023-02-06)[2023-04-09]. https://www./journals/landig/article/PIIS2589-7500(23)00023-7/fulltext.

[5]VAN DIS E M,BOLLEN J,ZUIDEMA W,et al. ChatGPT:five priorities for research[J]. Nature,2023(614):224-226.

[6]ELSE H. Abstracts written by ChatGPT fool scientists[J]. Nature,2023(613):423.

[7]Will ChatGPT transform healthcare?[EB/OL]. (2023-03-14)[2023-04-09]. https://www./articles/s41591-023-02289-5.pdf.

[8]RUKSAKULPIWAT S,KUMAR A,AJIBADE A. Using ChatGPT in medical research:current status and future directions. [J]. Journal of multidisciplinary healthcare,2023(16):1513-1520.

[9]令小雄,王鼎民,袁健. ChatGPT爆火后关于科技伦理及学术伦理的冷思考[J]. 新疆师范大学学报(哲学社会科学版),2023,44(4):123-136.

[10]细思极恐:ChatGPT编造的医学论文摘要,审稿人也难辨真假[EB/OL]. (2023-02-09)[2023-04-09]. https://www.163.com/dy/article/HRPHB2FP053296CT.html.

[11]骆飞,马雨璇. 人工智能生成内容对学术生态的影响与应对——基于ChatGPT的讨论与分析[J]. 现代教育技术,2023(6):15-25.

[12]高奇琦,张蓥文. 主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响[J]. 国际安全研究,2023,41(3):3-27,157.

[13]龙启铭. 人工智能时代下智能审校的应用探析[J]. 传播与版权,2022,109(6):39-41,45.

[14]THORP H H. ChatGPT is fun,but not an author[J]. Science ,2023,379(6630):313.

[15]Tools such as ChatGPT threaten transparent science; here are our ground rules for their use[EB/OL]. (2023-01-24)[2023-04-09]. https://www./articles/d41586-023-00191-1

[16]港大禁用ChatGPT等AI工具,为全港大学首例[EB/OL]. (2023-02-19)[2023-04-15]. https://m.gmw.cn/baijia/2023-02/19/1303288091.html.

[17] 没有网络安全就没有国家安全[EB/OL]. (2018-12-17)[2023-04-15]. http://www./2018-12/27/c_1123907720.htm.

[18]邓建鹏,朱怿成. ChatGPT模型的法律风险及应对之策[J]. 新疆师范大学学报(哲学社会科学版),2023,44(5):91-101,2.

Title:Research on the Impact of ChatGPT on Academic Journals and Corresponding Strategies

Author : ZHANG Lu1)2), GUO Xiaoliang1), JING Yong1), SUN Jun3)

AuthorAffiliation : 1) Editorial Department of Journal of Shenyang University of Technology; 2) School of Management, Shenyang University of Technology; 3) Liaoning Energy Investment Group Liaoning Urban Rural Gas Co., Ltd.

Abstract : This research aims to avoid the risks caused by the improper use of artificial intelligence tools such as ChatGPT and assist in the high-quality development of academic journals. The improper use of ChatGPT in the academic field has brought some negative impacts and challenges to academic journals, including increasing the difficulty of identifying academic misconduct; disrupting the academic ecological environment; increasing the sense of distrust in the academic community and provoking privacy and security issues. To address these issues, the following suggestions are proposed: exploring the human-machine collaborative work modes and strengthening the accountability mechanisms for academic misconduct; developing publishing policies to standardize the use of artificial intelligence tools; strengthening the protection of user privacy and ensuring the data security.

Keywords : ChatGPT;artificial intelligence;academic journal;academic publishing

编辑:许彤彤

审核:靳琼 熊喆萍

期刊简介

《出版与印刷》于1990年创刊,是由上海市教育委员会主管、上海出版印刷高等专科学校主办,经国家出版主管部门批准的学术性期刊。本刊专注现代出版与印刷专业人才培养,服务出版与印刷产业转型发展,促进出版与印刷领域的产教研深度融合。读者对象主要为出版与印刷领域教育、科研及从业人员。主要栏目设有本期聚焦、研究与观察、出版实务、期刊研究、印刷与包装、出版融合、专业人才培养、出版史话等,内容注重学术性、专业性、实用性和可读性。

《出版与印刷》为中国人文社会科学期刊AMI综合评价扩展期刊,《中国学术期刊影响因子年报》统计源期刊。全文收录于中国知网、万方数据、中文科技期刊数据库、超星期刊等。2021年入选第七届华东地区优秀期刊。

期刊网站:

‍https://cbyys.

投审稿系统:

http://www./cbyys

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多