中国科技期刊使用人工智能政策的研究及对策建议——基于40份科技核心期刊政策文本的Nvivo分析
Research and Strategic Recommendations on Use of AI Technologies in Chinese STM Journals: Nvivo Analysis Based on the Policy Texts of 40 Core STM Journals
通讯作者:
| 基金资助: |
|
Recently, artificial intelligence (AI) has developed rapidly. In the academic research field, AI has driven comprehensive innovation in research paradigms, theoretical modeling, and methodologies. In the academic publishing field, AI has reshaped the entire academic publication process, from manuscript writing, review, editing, and proofreading to dissemination. Moreover, AI has created a series of challenges for scientific research and academic publishing, such as the industrialization of "paper mills" and the fabrication of references. This urgently requires the academic publishing industry to reach a consensus; formulate clear norms and policies for the use of AI in academic publishing; and guide authors, reviewers, editors, and publishing units and other stakeholders to use AI reasonably and responsibly. This study selected 200 journals, including the top 100 natural science and social science journals in the 2024 Chinese Scientific and Technology Journal Citation Reports (Core Edition), as research objects and used the qualitative analysis tool Nvivo 12 Plus to analyze their AI-usage policy texts, aiming to provide references for Chinese scientific, technical, and medical (STM) journals in formulating AI usage policies and promoting their high-quality development. The number of reference points for author policies was the highest, totaling 531, followed by that for reviewer policies and editor policies, at 138 and 49 reference points, respectively. The number of reference points for publisher policies was the lowest, with only 29. Further analysis showed that regarding author policies, although Chinese STM journals have established tiered and categorized penalty mechanisms, there is a lack of consensus on requirements such as disclosure content, location, and statement templates. Regarding reviewer policies, Chinese STM journals clearly define the boundaries of using AI for review, but further clarification is needed on the responsibilities of reviewers and the disclosure requirements for AI usage. In terms of editor policies, Chinese STM journals have focused on regulating the scope of editors' prohibition of using AI but lack clear guidelines on the reasonable use of AI. In terms of publisher policies, Chinese STM journals lack comprehensive AI review and assessment mechanisms and a disclosure mechanism for AI usage. To this end, drawing on the practical experience of domestic and foreign STM journal publishing units and academic publishing organizations, four specific measures are proposed from the perspectives of authors, reviewers, editors, and publishing units as stakeholders. First, a disclosure mechanism for authors' use of AI is established from three dimensions: disclosure requirements, disclosure location, and content. Second, the principles of accountability and transparency should be adhered to, and the responsibility attribution and disclosure requirements for reviewers' use of AI should be clarified. Third, "human–machine collaborative" editing and publishing mechanism should be constructed by clarifying the boundaries of rights and responsibilities for AI use, establishing an infrastructure for AI-assisted editing and proofreading, and strengthening team development. Fourth, publishing units should establish AI usage policies covering the entire academic publishing process, forming a closed loop of "usage norms–review mechanisms–accountability mechanisms".
Keywords:
本文引用格式
李慧, 苏莉娜, 周会霞, 黎霜霜, 王梦婷, 谢邦彦, 刘广宇.
LI Hui, SU Lina, ZHOU Huixia, LI Shuangshuang, WANG Mengting, XIE Bangyan, LIU Guangyu.
近年来,人工智能(AI)的迅猛发展,对国内外学术生态产生了系统性影响。在学术研究层面,它驱动着研究范式、理论建模与路径的全面创新。在学术出版层面,AI重塑了从评审、编校到传播的整个链条。如多伦多大学、牛津大学、北京大学等18所国内外顶尖高校联合发布面向人类与AI科学家的下一代开放获取平台aiXiv,支持科研提案和论文由人类与AI科学家共同提交、评审和迭代优化[1]。2025年12月,《前沿》(Frontiers)通过对111个国家约1 600名学者的调查发现,超过50%的研究人员在开展同行评审时使用AI[2]。此外,第18届机器学习与计算国际会议(ICML 2026)首次实施“双轨制”评审政策,论文作者可以选择在其论文评审过程中采用完全禁止AI评审的“Policy A”或有限度使用AI评审的“Policy B”[3]。
与此同时,AI也给科研与学术出版带来“论文工厂”产业化、虚构参考文献等一系列挑战。有学者分析了arXiv、bioRxiv和SSRN三大预印本数据库共209.7万篇预印本,发现虽然使用大语言模型能提升写作效率,但其写作语言的复杂程度越高,同行评议对论文科学价值的评价反而越低[4]。此外,据《新闻界》总编辑段吉平所述,其编辑部曾收到来自985高校师生的投稿,正文虽看似通顺,但经查,其参考文献均是由AI生成的虚假文献[5]。2025年12月发布的《科学出版改革:斯德哥尔摩宣言》(“Reformation of science publishing:the Stockholm Declaration”)更指出,面临职业压力的科学家们会被诱使购买由“论文工厂”利用AI生成数据、文本和图像的论文。每年这类低质量或欺诈性论文的数量都上升至数十万篇[6]。因此,我们有必要针对学术出版AI的使用制定明确的规范和政策。
与此同时,国内学者对学术出版的AI使用政策从多维度展开研究。在出版伦理层面,邱蕾等分析了AIGC背景下学术不端的新特征和期刊出版伦理治理面临的困境,从制度规范、技术和教育文化等三个层面提出改进路径[7]。吴赟等通过整合分析学术出版伦理规范文本,提出了AI时代学术出版伦理规范体系的构建共识与原则[8]。谭春林等分析了AIGC大语言模型在研究、出版和传播三大领域的应用场景,建议谨慎采用AIGC技术并遵循透明度原则和附加伦理声明[9]。在政策内容层面,许洁等对国外有关人工智能应用的政策文本开展实证研究,发现国际学术出版机构对人工智能的应用持基本肯定态度,但仍保持谨慎的政策原则[10]。张艳丽等系统梳理国内外有关AIGC应用的政策规定,提出规避风险的策略以及在不同阶段使用AIGC的可行性建议[11]。在学科领域层面,王琛[12]等、易耀森[13]、杨陈[14]等、臧国全[15]等,分别分析了图书情报学、医学、农业和社会科学等领域学术期刊的AI使用规范现状并提出对应的优化策略。
文献梳理发现,现有研究针对国内科技期刊的AI政策普及度与政策内容的研究较为匮乏,且科技期刊AI使用政策现状亟待系统分析。为此,本研究系统梳理科技期刊各利益主体(作者、审稿人、编辑及出版单位)的AI使用政策,着重分析AI应用边界、信息披露规范及处理机制等核心要素,以揭示当前AI政策的实施现状与现存问题。同时,参考国内外科技出版机构及学术组织AI政策的制定经验,为科技期刊制定符合中国学术出版实际并与国际接轨的AI政策提出有益建议。
1 目的
本研究系统分析中国科技核心期刊使用AI的政策文本,包括使用边界、披露要求和处理机制等内容,剖析当前不同利益主体AI使用政策的现状与问题。借鉴国内外科技出版机构及学术出版组织的实践经验,旨在为我国科技期刊制定AI使用政策提供参考,促进中国科技期刊高质量发展。
2 方法
2.1 研究思路
首先,研究团队对政策文本从发布数量、发布主体和政策类型三个维度进行总体分析。其次,运用质性分析软件Nvivo 12 Plus的词频统计功能,分析科技核心期刊AI政策文本的关注点和特征。研究团队对政策文本进行编码,结合国内外学术组织和学术出版机构的AI政策,深入对比分析政策文本内容与关键节点。最后,基于前文分析和我国科技期刊出版实际,为科技期刊AI政策制定提供对策建议。
2.2 材料来源
本文选择2024年中国科技期刊引证报告(核心版)综合评分前100的自然科学类和社会科学类期刊共200本作为研究对象。研究团队对2025年5月30日前的信息进行网络搜索:在研究对象官网、公众号和中国知网检索期刊AI政策相关信息,最终找到40份政策文本,其中政策文本名称包括规定、声明、启事、政策、要求、通知、公告和指南等。
2.3 编码分析
为进一步分析40份政策文本,研究团队选取AI政策中具体内容作为基本分析单元,借助质性分析软件Nvivo 12 Plus进行质性分析。按照“政策工具对象类型(一级节点)—政策子工具(二级节点)—政策具体要求(三级节点)”对政策文本内容进行编码。首先基于研究维度,建立了“作者政策”“审稿人政策”等4个一级节点;其次基于一级节点的不同范畴,建立了“合理使用范围”“惩罚处理机制”等21个二级节点;最后对政策文本进行逐一编码,形成“辅助论文调研”“禁止参与审稿”等48个三级节点,并归类至相应的二级节点下。
3 结果
3.1 总体情况
3.1.1 发布数量逐年上涨
统计分析40份政策文件可知,2023年度仅7本期刊发布AI政策,2024年度共有16本期刊发布AI政策,是2023年度的2.29倍。在自然科学领域,自中华医学会杂志社于2024年1月发布《关于在论文写作和评审过程中使用生成式人工智能技术的有关规定》后,科技期刊尤其是医学类的科技期刊如《中国全科医学》《中华护理杂志》等,相继出台AI政策。在社会科学领域,中国历史研究院历史研究杂志社于2025年2月发布《关于规范生成式人工智能工具使用的启事》后,得到包括《考古》在内的多本科技核心期刊的微信公众号转发,带动了越来越多社科类科技核心期刊发布AI政策,并在2025年第二季度达到最高峰,共有5本社会科学类科技核心期刊发布AI政策,显著超过同期自然科学类科技核心期刊的政策发布数量。
3.1.2 发布主体多元互补
从政策发布机构类型来看,共有77.7%的AI政策文件来自科技核心期刊编辑部和杂志社,10%来自学术期刊数字化集群平台,如人文社科多语种国际出版平台(HSS Online)和施普林格·自然(Springer Nature)集团,还有7.5%由高校、科研院所发布,如中国电科院期刊中心、中国传媒大学和中国社会科学院语言研究所等。研究发现,我国期刊编辑部和杂志社发布AI政策的积极性较高。虽然数字化集群平台只占十分之一,但其具有更广泛的影响力,更易达成业界共识。而占比最少的高校和科研院所,其政策执行效率更高,对外将形成示范带动作用。三类主体功能互补,形成了科技核心期刊AI政策的多元发布主体结构。
3.1.3 政策类型效力不一
通过分析发现,40份AI政策以规定和声明为名称的占较大比例,分别为35%和32.5%,其次为启事、政策、要求等,占比分别为12.5%、7.5%、5%,这表明科技核心期刊的AI政策以规定、声明为主,具有较强的规范性和约束力。但研究发现,仅有5本期刊依据国际出版伦理委员会(COPE)、国际医学期刊编辑委员会(ICMJE)或《学术出版中AIGC使用边界指南》制定其AI政策,整体政策依据与效力不足。例如《关于慎用通用人工智能模型进行〈煤炭学报〉同行评议的通知》,建议审稿人在使用AI模型辅助审稿时保持谨慎态度,但没有明确审稿人的使用范围。
3.2 编码分析情况
3.2.1 词频统计分析
利用Nvivo 12 Plus对40份政策文本进行词频分析,为有效筛选不必要重复的词语,设置词频条件为出现频次最高的30个去“同义词”,将“内容”“进行”“情况”“用于”等词纳入“停用词库”,并将显示最小长度调整为“2”,生成图 1所示词云图及表 1所示高频词统计表。发现“作者”“人工智能”“AI”“论文”等词语在40份AI政策文本中出现的频率最高。由于Nvivo12 Plus软件没有手动添加同义词的功能,所以研究团队将表 1中的近义词“GenAI”“人工智能”和“AI”合并为“AI”,得出其出现的频次最高达916次。其中“作者”“论文”“AI”“审稿”等第一类(排名前10)高频词表明,AI政策主要围绕作者和审稿人在论文撰写与审稿过程中对使用AI工具的行为进行规范。“写作”“责任”“评审”“文献”“编辑”“辅助”等第二类(排名11至20)高频词充分体现了科技期刊将学术生产全流程中的责任归属和使用规范作为AI政策文本的重要部分。“禁止”“稿件”“参考”“期刊”“编辑部”等第三类(排名21至30)高频词说明现有的AI政策注重规范禁止使用范围,以及进一步明确编辑部、期刊单位的审查和处理机制。综合第一、第二和第三类高频词可知,现有AI政策的关注点是在规范作者和审稿人使用AI工具行为的同时,明确各方责任,以确保学术出版的真实性、原创性与合规性。
图 1
表 1 科技核心期刊AI政策高频词
| 主题词 | 长度 | 计数 | 加权百分比/% | 相似词 |
| 作者 | 2 | 496 | 2.89 | 作者 |
| GenAI | 5 | 464 | 2.71 | GenAI |
| 论文 | 2 | 461 | 2.69 | 论文 |
| 生成 | 2 | 351 | 2.05 | 生成 |
| 人工智能 | 4 | 249 | 1.45 | 人工智能 |
| 研究 | 2 | 237 | 1.38 | 学习、研究 |
| 审稿 | 2 | 234 | 1.37 | 审稿 |
| 学术 | 2 | 229 | 1.34 | 学术 |
| 规定 | 2 | 220 | 1.26 | 标准、规定、规范 |
| AI | 2 | 203 | 1.18 | AI |
| 写作 | 2 | 178 | 1.04 | 写作 |
| 责任 | 2 | 173 | 1.01 | 任务、义务,责任 |
| 数据 | 2 | 152 | 0.89 | 数据 |
| 评审 | 2 | 147 | 0.86 | 评审 |
| 技术 | 2 | 132 | 0.77 | 技术 |
| 文献 | 2 | 129 | 0.75 | 文件,文献 |
| 说明 | 2 | 136 | 0.75 | 翻译、建议、解释、理解、说明 |
| 分析 | 2 | 120 | 0.65 | 调查、分析、检查 |
| 编辑 | 2 | 111 | 0.65 | 编辑 |
| 辅助 | 2 | 102 | 0.60 | 辅助 |
| 禁止 | 2 | 93 | 0.54 | 禁止 |
| 稿件 | 2 | 88 | 0.51 | 稿件 |
| 参考 | 2 | 87 | 0.51 | 参考 |
| 要求 | 2 | 119 | 0.51 | 必要、需要、要求 |
| 违反 | 2 | 87 | 0.50 | 反对、侵害、违背、违反 |
| 期刊 | 2 | 86 | 0.50 | 期刊 |
| 编辑部 | 3 | 84 | 0.49 | 编辑部 |
| 提供 | 2 | 84 | 0.48 | 补充、提供、替代、许可 |
| 信息 | 2 | 81 | 0.47 | 信息 |
| 处理 | 2 | 104 | 0.47 | 操纵、处理、监督、竞争、涉及、引导、指导 |
3.2.2 政策文本分析
本文根据科技部监督司《负责任研究行为规范指引(2023)》的要求,将科技期刊相关利益主体划分为作者(科研人员)、审稿人、编辑和出版单位4类。通过梳理国内外科技出版机构如科学编辑委员会(CSE)自2018年至2025年期间更新的《促进科学期刊出版诚信的白皮书》(Recommendations for Promoting Integrity in Scientific Journal Publications)、国际科学技术和医学出版商协会(STM)于2023年发布的《学术交流中的生成式人工智能:在出版过程中使用生成式人工智能的伦理和实践指南》(Generative AI in Scholarly Communications:Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process)和中国科学技术信息研究所、爱思唯尔等于2025年发布的《学术出版中AIGC使用边界指南3.0》发现,在学术生产全流程中,作者、编辑、审稿人与出版单位四者之间职责交织,协同制衡。
其中,作者应严格遵守出版单位关于AI使用的政策,须在投稿时如实披露所使用的AI工具及其具体用途,对内容真实性负最终责任[16-17]。编辑作为科技期刊出版“守门人”,应依据出版单位的AI政策,审慎使用AI工具处理稿件,并对作者披露的AI使用情况进行独立判断。录用决定不可仅依赖AI生成的摘要或建议[16]。审稿人必须基于自身专业判断提供客观、建设性的评审意见,一方面避免在审稿过程中使用公共AI工具处理未发表稿件,以防数据泄露或引入偏见引入[16-17];另一方面,当审稿人怀疑作者存在违反AI政策的情况时,应向负责该稿件的编辑报告[18]。出版单位则应制定明确的AI使用政策和违规处理流程,为相关利益主体提供统一、清晰的操作依据、政策宣贯和人员培训。出版单位也应主动披露其在审稿、编辑等环节使用AI工具的具体情况[16-17]。
编码分析结果显示,虽然研究的政策文本覆盖作者、审稿人、编辑和出版单位4个利益主体,但不同利益主体的政策节点分布存在显著差异。其中,作者政策的数量最多,共计531个参考点,涵盖39份政策文本;其次是审稿人政策,涉及30份政策文件,参考点数为138个;而出版单位政策的参考点总数最少,仅29个,涉及21份政策文献。这说明期刊单位在AI政策制定方面具有针对性,着重规范作者运用AI进行科研及论文撰写的相关行为,但在规范审稿人使用AI评审的披露方面稍有不足,对于规范编辑、出版单位在审稿编校和出版发行环节使用AI的边界方面则更为欠缺。
3.2.2.1 作者政策:形成分级惩罚处理机制,披露声明要求尚需完善
研究发现,如表 2所示,作者政策中“合理使用范围”占比最高,共160个参考点,平均覆盖率为8.8%,其次是“禁止使用行为”和“惩罚处理机制”内容,参考点分别为120个和124个,平均覆盖率分别为8.2%和8.3%。这表明,期刊出版单位持续完善并细化作者的AI使用边界,将合理使用AI内容辅助科研和写作范围划分为论文调研、收集分析数据、生成算法模型、制作图表图形、检查格式和撰写稿件等6类,并将抄袭、拼凑,改写成果,生成论文选题,上传稿件至AI平台,生成全部内容,生成虚假数据、图像和视频,生成研究核心内容,伪造文献内容,虚构、隐瞒使用AI内容信息,引用人工智能生成的参考文献等10类纳入禁止使用AI内容的范围。此外,在惩罚处理机制方面,相较于Web of Science(WOS)核心合集的期刊及出版单位,如《美国职业治疗杂志》(American Journal of Occupational Therapy)、阿卡德米出版社(Akademiai Kiado)等会对违反政策的稿件仅予以撤稿或退稿,我国科技期刊建立了分级分类惩罚机制,包括退稿、撤稿,公开通报,告知作者所在单位及相关主体,并根据情节轻重,在3至10年内禁止在该期刊上发表论文等。
表 2 40份科技核心期刊作者使用AI的政策文本内容节点分析
| 一级节点 | 二级节点 | 三级节点 | 材料来源 | 参考点 | 平均覆盖率/% |
| 作者政策 | 合理使用范围 | 辅助论文调研;收集分析数据;生成算法模型;制作图表图形;检查格式;撰写稿件 | 35 | 160 | 8.8 |
| 禁止使用行为 | 抄袭、拼凑;改写成果;生成论文选题;上传至AI平台;生成完成内容;生成虚假数据、图像和视频;生成研究核心内容;伪造文献内容;虚构、隐瞒使用AI工具信息;引用人工智能生成的参考文献 | 37 | 120 | 8.2 | |
| 惩罚处理机制 | 禁止参与审稿;禁止发表;警告;列入学术失信名单或黑名单;通报;退稿或撤稿;视为违反学术诚信;视为学术不端;视为学术失范;追回稿酬;追究责任 | 31 | 124 | 8.3 | |
| 作者责任界定 | 承担一切法律责任和伦理责任;对原创性与学术真实性负有最终责任;作者对生成内容的版权归属、数据来源合法性及隐私保护承担全部责任;作者是能够对论文内容的真实性、完整性以及科学性等负责的自然人 | 33 | 33 | 3.6 | |
| 作者署名规定 | 禁止AI工具为署名作者;不应将人工智能和AI辅助技术列为作者或合著者 | 30 | 32 | 3.5 | |
| 使用披露要求 | 须在论文的数据来源、方法设计或结语部分明确说明使用了何种AI工具、详细使用过程,以及其作用和贡献;须出具使用生成式人工智能工具相关情况的书面说明,并签署作者承诺书 | 36 | 47 | 8.8 | |
| 披露声明模板 | 本文在准备和撰写过程中,作者使用了[GenAI具体工具/服务名称]来[使用目的:如文献调研/数据分析/图表制作等]。使用此工具/服务后,作者根据需要对内容进行了审查和编辑,并对出版物的内容承担全部责任 | 15 | 15 | 8.3 | |
| 小计 | 39 | 531 | 46.5 | ||
然而,在披露声明分析中发现,虽然已有36本期刊要求作者披露使用AI工具的情况,但仅有不足一半的期刊(15本)提供了披露声明的模板。通过进一步分析政策文本中的披露要求,不同期刊对作者披露AI工具的使用说明存在差异。在披露位置方面,以《数量经济技术经济研究》为例,其要求在稿件信息页的“备注”栏对AI使用情况进行声明,而《图书情报工作》则要求在论文的数据来源、方法设计、图表标注或结语部分等处明确说明所使用的AI工具种类、详细使用过程以及其发挥的作用与贡献。在披露内容方面,例如《数据分析与知识发现》说明使用AI作为基本工具进行语言润色、格式编辑和文字校对无须披露,但《交通运输工程学报》则要求专设段落披露使用AI进行数据采集/分析、图像/算法生成和文本润色的情况。这种差异可能为作者利用AI辅助科研和论文写作带来障碍,作者需根据不同期刊的要求频繁调整披露的位置,且不同期刊对披露内容存在差异,这可能导致学术不端行为的灰色地带出现。研究团队认为科技期刊出版单位可进一步细化披露位置要求,如参考《先进光子学》(Advanced Photonics)的出版单位国际光学工程学会(SPIE)的要求,数据采集和图像生成应用的AI工具应于材料与方法部分予以说明,语言润饰等辅助工具的使用则需在致谢中标注。同时,业界应就必须披露的内容和无须披露的内容达成共识。
3.2.2.2 审稿人政策:明确AI审稿的使用边界,责任界定和披露要求存在缺失
研究发现,如表 3所示,审稿人政策关于“禁止使用行为”和“惩罚处理机制”的参考点较多,分别为61次和39次,其中“禁止使用行为”主要包括“辅助审稿”“论文修改”“上传至AI平台”和“生成评审意见”等4个方面,与《负责任研究行为规范指引(2023)》和《学术出版中AIGC使用边界指南3.0》的要求相符,而“惩罚处理机制”方面,出版机构依据情节严重程度,分别对审稿人采取追回已发放的审稿费,取消审稿资格、公开通报、告知作者所在单位及相关主体、禁止在出版机构发表成果,甚至追究其法律责任。
表 3 40份科技核心期刊审稿人使用AI的政策文本内容节点分析
| 一级节点 | 二级节点 | 三级节点 | 材料来源 | 参考点 | 平均覆盖率/% |
| 审稿人政策 | 合理使用范围 | 文献核查;数据验证;优化评审报告语言 | 7 | 7 | 2.3 |
| 禁止使用行为 | 辅助审稿;论文修改;上传至AI平台;生成评审意见 | 26 | 61 | 3.6 | |
| 惩罚处理机制 | 禁止投稿;经济赔偿;警告;取消审稿资格;通报;视为无效审稿;承担责任;追回审稿费 | 20 | 39 | 3.7 | |
| 审稿人责任界定 | 同行审稿人对其报告的准确性和表达的观点负责;专家应对辅助审稿意见把关和负责 | 6 | 6 | 2.3 | |
| 报告违反使用情况 | 审稿人质疑作者违反本规定的要求使用GenAI时,应向编辑部报告,并在评审意见中说明理由 | 14 | 14 | 2.6 | |
| 使用披露要求 | 须在评审意见末尾处,标注AI使用场景及工具信息;在提交审稿意见时应向编辑部说明使用的AI工具及其版本、详细使用过程及其作用 | 7 | 7 | 3 | |
| 小计 | 30 | 138 | 17.5 | ||
在责任界定方面,研究团队在调研中发现爱思唯尔(Elsevier)、《细胞》(Cell)等在同行评议的AI政策中明确了“审稿人应对评审报告的内容负责并承担责任”。但在这40本期刊中,仅有6本对审稿人的责任归属有较为清晰的界定,包括应知悉并遵守AI使用限制,防止泄露稿件内容或侵犯作者知识产权,并对审稿过程中任何AI介入行为负责,但是研究的大部分期刊没有厘清审稿人的责任。这种责任缺位的状态,直接影响政策对审稿人使用AI的约束力。日经新闻近期报道,有14所知名大学的学者的研究论文含有诱导AI给出高分的指令,若审稿人使用AI评审这些论文,可能得到较好的评价[19]。从这一现象可见,研究人员刻意在论文添加“诱导指令”,说明AI在审稿环节过度渗透并存在可被操控的漏洞。因此,一旦出现审稿人违规使用AI审稿,甚至导致科研成果、科研数据泄露,期刊单位将难以追责。
另外,虽然国际医学期刊编辑委员会(ICMJE)、世界医学编辑协会(WAME)以及中国科学技术信息研究所、施普林格·自然(Springer Nature)发布的《负责任同行评议实践指南》均明确了审稿人应披露AI使用的情况,但在研究中发现,仅有7本期刊要求审稿人对使用AI的行为进行披露,包括“须在评审意见末尾处,标注AI使用场景及工具信息”等。相较于作者的披露要求,审稿人的披露内容较为含糊,这不仅导致编辑、出版单位难以追踪AI对审稿人评审结果的实际影响,也影响审稿流程的可追溯性。
3.2.2.3 编辑政策:着重规范禁用AI范围,缺乏使用AI的工作指引
如表 4所示,在“编辑政策”一级节点中,分为“合理使用范围”“禁止使用行为”“编辑责任界定”“报告违反使用情况”等4个二级节点,其中“禁止使用行为”有19个材料来源,39个参考点。其中,禁止“规范化处理”和“使用AI审稿”的占比最高,分别有13个和18个参考点。但在研究的政策文件中,未有明确界定“规范化处理”的内容。这导致编辑在实际编辑工作中面临困惑,即文本润色、格式调整等基础编校工作是否定义为“规范化处理”。大部分科技期刊的AI使用政策允许作者使用AI润色论文、检查格式,甚至撰写稿件,与此同时,编辑是否被允许同样的使用范围,研究的AI政策文本对于上述疑问缺乏明确指引,不仅使政策形同虚设,更可能因执行标准不一而引起质疑。
表 4 40份科技核心期刊编辑使用AI的政策文本内容节点分析
| 一级节点 | 二级节点 | 三级节点 | 材料来源 | 参考点 | 平均覆盖率/% |
| 编辑政策 | 合理使用范围 | 辅助总结论文;编辑部日常工作;润色英文摘要;宣传推广;选题策划 | 4 | 8 | 7.4 |
| 禁止使用行为 | 采编、撰稿;规范化处理;上传至AI平台;使用AI审稿;撰写审读报告 | 19 | 39 | 3.2 | |
| 编辑责任界定 | 应对论文的评审过程和评审结果的准确性和完整性承担全部责任 | 1 | 1 | 2.4 | |
| 报告违反使用情况 | 一经怀疑作者或审稿人违反了AI使用政策,编辑应及时通知编辑部采取应对措施 | 1 | 1 | 1.9 | |
| 小计 | 20 | 49 | 14.9 | ||
此外,在“合理使用范围”方面,科学编辑委员会(CSE)[16]对编辑使用AI提供了指引,包括使用AI工具编辑、润色论文,寻找潜在审稿人等。但研究的政策文本中,仅有7本科技核心期刊的政策允许编辑使用AI总结论文要点、从事编辑部日常工作、润色英文摘要和组织选题策划等。此外,研究团队梳理中国知网关于AI赋能期刊编辑的研究成果发现,AI在校正语法错误[20]、选题策划[21]、审稿排版[22]等方面有助于提升编辑的工作效率,促进期刊高质量发展,这些研究成果与期刊单位实际发布的政策导向存在明显差异。这对科技期刊运用AI技术提升编辑工作效率、推动数字化转型形成实际障碍,例如,虽然允许编辑使用AI开展选题策划,但缺乏具体的使用细则和责任划分,导致编辑在实践中难以把握尺度。例如,因担忧责任风险,编辑可能会避免使用AI数据分析辅助选题决策,又如,在审稿排版等环节,AI工具可能因自动修改表述,引发学术不端或增加后续纠错的时间成本,反而降低效率。
3.2.2.4 出版单位政策:普遍缺乏AI审查评估机制,披露机制有待明确
如表 5所示,“出版单位政策”一级节点的材料来源和参考点是4个一级节点中最少的,分别只有21个和29个,其中有部分科技期刊已形成审查评估使用AI的机制,例如《文学遗产》和《文学评论》采用“AI检测+技术专家外审”的机制,《中国组织工程研究》结合论文本身的合理性、编辑人工复核、作者反馈等多维度综合分析,评估作者使用AI的情况。但是这类期刊只占少数(6本)。此外,在分析政策文本中发现,虽然部分期刊表明使用AI检测工具,但仅有《交通运输工程学报》和《中国组织工程研究》两本期刊制定了AIGC检测率,分别为30%和15%,且两者差异较大。根据国际出版伦理委员会(COPE)公布的一项相关使用AI审稿的案例回复指出,单凭AI检测软件检测结果判断文章是否由AI生成的做法是不明智的。原因是作者撰写论文时使用的某些特定的语言和短语,容易被标记为由AI生成[23]。这种审查机制匮乏和AI检测标准混乱的现状,对科技期刊维护学术诚信带来一定风险。此外,有研究人员发现,有“论文工厂”利用美国国家健康与营养调查(NHANES)数据库,使用AI技术通过应用程序编程接口(API)自动提取和分析数据,从而批量生成论文。以“单因子关联研究”论文为例,发表数量从2014年至2021年的年均4篇,到2024年10个月内激增达190篇[24]。由此可见,现在期刊的审查评估机制难以形成行业屏障,论文工厂可以轻易将AI生成的论文投向缺乏有效审查的期刊,这不仅削弱了期刊的公信力,也为论文工厂提供了“洗白”问题论文的操作空间,最终将影响整个学术出版体系的严肃性与可信度。
表 5 40份科技核心期刊出版单位使用AI的政策文本内容节点分析
| 一级节点 | 二级节点 | 三级节点 | 材料来源 | 参考点 | 平均覆盖率/% |
| 出版单位政策 | 事前防控措施 | 采取多种技术手段实施事前防控 | 13 | 13 | 2.1 |
| AI检测要求 | 借助AI审查工具审查;利用“腾云AI编辑助手”平台在送外审前、作者返修后、采用前对稿件进行3次或以上AIGC检测 | 4 | 8 | 5.3 | |
| 惩罚处理机制 | 取消审稿资格;禁止投稿 | 1 | 2 | 6.2 | |
| 审查评估机制 | 采用人工智能生成内容专业检测系统、聘请技术专家共同外审;根据论文本身研究设计的合理性结合编辑人工复核、作者反馈以及具体学术政策的综合应用进行审慎判断 | 6 | 6 | 6.5 | |
| 小结 | 21 | 29 | 20.1 | ||
目前,AI技术已应用于期刊出版中的智能文献检索、选题策划、协助审稿校对及检测数据文本造假等方面,为科技期刊出版的高质量发展带来新的契机[25]。同时,科学编辑委员会(CSE)和国际医学期刊编辑委员会(ICJME)要求出版单位主动披露AI工具的使用情况,例如,爱思唯尔(Elsevier)明确将拥有符合RELX负责任AI原则的身份保护的AI辅助技术,用于抄袭检查,并确定合适的审稿人。《前沿》(Frontiers)正在面向审稿人试点开放使用内部的AI工具[2]。在研究过程中,除使用AI辅助检测外,研究团队没有从40份的政策文本中找到关于出版单位AI使用的披露情况。当出版单位要求作者、审稿人披露AI使用情况的同时,自身却未公开编辑、审校和出版流程中的AI参与程度,这种“双重标准”易引发作者对出版单位公正性的质疑。
4 讨论
本文通过对40份科技核心期刊政策文本进行质性研究,对比国际科技期刊出版机构及学术组织如国际出版伦理委员会(COPE)、国际医学期刊编辑委员会(ICMJE)、世界医学编辑协会(WAME)、国际科学、技术和医学出版商协会(STM)、Web of Science(WOS)核心合集收录期刊等发布的关于AI使用的政策,得出以下结论:从作者使用AI的政策看,现有的政策文本注重规范作者对AI的使用边界,但披露要求存在差异;从审稿人使用AI的政策看,大部分科技期刊形成了分级分类的惩罚处理机制,但缺乏对审稿人责任的明确;从编辑使用AI的政策看,其着重规范编辑禁用内容,但缺乏引导编辑使用AI推动期刊发展;从出版单位使用AI的政策看,普遍缺乏AI审查评估机制,使用边界尚需完善。
基于上述研究分析,本文分别从作者、审稿人、编辑和出版单位提出建议,以期为中国科技期刊制定符合我国学术出版实际并与国际规则接轨的AI使用政策框架提供参考借鉴。
4.1 作者:建立规范的AI使用披露机制
研究团队通过调研、分析国内外学术出版机构、学术组织的AI使用政策发现,AI使用披露机制应细分为三个方面。一是披露要求。参照科学编辑委员会(CSE)、《学术出版中的AIGC使用边界指南3.0》等建议,科技期刊的AI政策应明确要求作者对AI工具的使用情况进行充分、准确披露和声明。二是披露位置。建议科技期刊根据学科特色细化披露位置,如果数据收集过程使用了AI工具,应在论文的材料或方法部分中披露,生成图片应在图注中披露。三是披露内容。出版单位应明确区分必须披露内容和无须披露内容,并达成共识。建议参照《数据分析与知识发现》,以列表的方式说明必须披露和无须披露的内容。其中AI工具用于文献检索、选题思路、数据分析、生成图表等核心研究工作应详尽披露,而AI工具用于文字校对、润色等基础性工作,建议无须披露。
4.2 审稿人:明确责任归属和披露要求
一方面,坚持问责原则。在科技期刊的AI政策中明确审稿人的责任,要求审稿人对审稿报告的内容、准确性和建设性负责。根据违反政策的情节严重程度,制定问责措施。由于机器检测存在误差,前期调研和分析发现,没有学术出版单位提供申诉和复核渠道,因此,研究团队建议构建“申诉—复核”流程,既对不当使用AI的行为进行有效规制,亦避免技术应用中可能出现的误判问题。另一方面,坚持透明原则。科研人员应当通过合理方式,明确说明学术研究过程中使用GenAI的类型、环节与程度,确保学术成果内容可追溯[26],建议参照《学术出版中的AIGC使用边界指南3.0》的作者披露模板,建立同行评议标准化的披露声明模板,确保披露内容清晰、可溯源。
4.3 编辑:构建“人机协同”出版机制
首先,明确编辑的AI权责边界。编辑既是AI工具的使用者,也是作者、审稿人是否合理使用AI的判断者之一。建议出版单位不仅为编辑提供合理使用AI的操作指引,也应制定用于判断作者与审稿人的AI使用行为是否合规的评估标准。其次,建设AI辅助编校的基础设施。在实际操作中,出版机构可向编辑和审稿人提供或推荐负责任的AI辅助工具,甚至可以将AI集成到投稿审稿系统中,保证AI使用过程透明可控。例如,中华医学会的MedPress平台使用AI辅助稿件审理,包括检测论文工厂生产的论文,评估文章价值、学术诚信和引用等。最后,加强编辑队伍建设。建议科技期刊与高校、数字技术企业开展交流合作,明确当前数智技术的发展进程、出版行业技术需求和实践现状等,有针对性地构建涵盖数据挖掘、机器学习、自然语言处理和案例分析等内容的培训课程。
4.4 出版单位:建立覆盖学术出版全流程的科技期刊使用AI政策
学术出版包括学术生产、评审与编校、出版与传播和存档与监督四个环节[27]。但研究发现,当前科技期刊AI政策重点关注学术生产和评审与编校,针对出版与传播和存档与监督这两个环节的规定相对空白。虽然《学术出版中AIGC使用边界指南3.0》为学术出版全流程提供了使用指南,但没有将供应商/第三方服务提供商纳入责任主体。建议国内科技期刊在制定AI使用政策时,借鉴国际科学、技术和医学出版商协会(STM)[17]做法,从学术出版全过程视角构建科技期刊使用AI政策框架,明确出版单位、作者、审稿人、编辑、第三方服务商等各方利益主体的权责范围,避免环节脱节产生漏洞,防范潜在风险缺口。同时,建立相应的“机器审核+人工评审”的AI审查机制,通过人工复核、作者反馈以及具体学术政策等进行审慎判断,形成“使用规范—审查机制—问责机制”的闭环,引导作者、审稿人、编辑和出版单位合理、负责地使用AI。
参考文献
More than half of researchers now use AI for peer review: Often against guidance
[J].DOI:10.1038/d41586-025-04066-5 [本文引用: 2]
Scientific production in the era of large language models
[J].DOI:10.1126/science.adw3000 [本文引用: 1]
Reformation of science publishing: The Stockholm declaration
[J].DOI:10.1098/rsos.251805 [本文引用: 1]
社科学术期刊的AI使用政策图谱与治理进阶: 基于50家社科学术期刊生成式人工智能使用政策文本的分析
[J].
Explosion of formulaic research articles, including inappropriate study designs and false discoveries, based on the NHANES US national health database
[J].DOI:10.1371/journal.pbio.3003152 [本文引用: 1]
/
| 〈 |
|
〉 |
