AI时代科技期刊科研诚信治理的国际经验与中国路径
International Experiences and China’s Pathways to Research Integrity Governance in STM Journals in AI Era
Scientific, technical, and medical (STM) journals in China are currently experiencing a significant transition toward high-quality development while confronting increasingly complex challenges in the artificial intelligence (AI) era. AI Advances have transformed research methodologies, evaluation processes, and dissemination practices, presenting both opportunities and potential risks for research integrity. The research integrity governance approaches implemented by leading international STM journals provide valuable insights in this context. These journals have accumulated substantial experiences in addressing AI-era challenges, providing valuable lessons for establishing a research integrity governance framework tailored to China’s specific academic and institutional context. This paper systematically reviews the research integrity governance practices across 265 mainstream STM journals in the AI era, analyzing their regulatory mechanisms, technological strategies, and ethical frameworks. The analysis reveals that international journals and publishing institutions implement a comprehensive approach to research integrity governance. This includes establishing detailed and precise regulatory rules, deploying advanced technological detection and verification tools, and developing shared ethical norms across the academic community. These measures are designed to mitigate risks while simultaneously fostering academic innovation. The resulting governance framework operates on multiple levels, incorporating hierarchical management structures that range from full-process oversight to targeted supervision at critical stages of the research and publication process. Additionally, governance measures are adjusted according to disciplinary sensitivity and specific risk profiles, ensuring intensive monitoring of high-risk areas. A notable innovation in many international practices is the integration of human–machine collaborative defense mechanisms, combining automated detection technologies with expert assessment to establish a robust, adaptive, and scalable model for maintaining research integrity. Based on these insights, this paper proposes three strategic priorities for developing China’s research integrity governance system for STM journals. First, it emphasizes establishing comprehensivefoundational governance frameworks that clearly define responsibilities, standards, and workflows across all stages of the research and publication lifecycle. Second, it highlights the importance of proactive ethical cultivation, embedding research integrity and professional norms into the core academic culture of journals. Third, it underlines the necessity of aligning policies and standards with both national regulations and international best practices to enhance coherence, comparability, and credibility. The development of an agile governance system requires strategic planning across three dimensions: promoting multi-stakeholder collaboration among publishers, researchers, and institutions to integrate diverse expertise; strengthening institutional and technical capacities to address emerging risks; and fostering technological innovation to improve the efficiency, accuracy, and reliability of research integrity monitoring. By learning from the structured, technology-enabled, and ethically grounded approaches of leading international journals, China can establish a research integrity governance system that addresses AI-era challenges while reflecting its national characteristics. This system would serve to safeguard scientific credibility and integrity while strengthening the global competitiveness and impact of STM publications in China.
Keywords:
本文引用格式
张秦.
ZHANG Qin.
随着人工智能技术的迅猛发展,其在科学研究和科技论文写作中的应用日益广泛。2025年,Nature封面文章AI for research:The ultimate guide to choosing the right tool系统推荐了15款顶尖AI科研工具,覆盖从文献综述、研究假设生成、实验设计到数据处理与统计分析的多个核心环节。同年,Nature对全球5 000名研究者的调查数据显示,超过半数的受访者在论文撰写过程中尝试使用ChatGPT等生成式AI工具。[1]然而,科技期刊界对AI工具在研究和写作中的使用可能引发的科研诚信问题充满警惕,特别是侵犯隐私和知识产权,数据、图片、音视频造假,论文造假等问题。[2]近年来,全球主流科技期刊和期刊出版机构纷纷加强对AI时代科研诚信治理的关注,试图在促进技术创新与维护学术生态的公平性、可信度之间寻求平衡点。[3] Wiley、Elsevier和Springer Nature等国际主流科技期刊出版机构相继出台了AI使用政策,加强了对AI在科技论文写作中的全过程管理。我国科技期刊正处于高质量发展的转型期,国际主流科技期刊出版机构在AI时代的科研诚信治理方法具有很强的代表性,其积累的许多宝贵经验对构建AI时代符合中国国情的科技期刊科研诚信治理框架具有借鉴作用。
基于此,本文选取Elsevier、Springer Nature、IEEE三大国际主流科技期刊出版机构出版的265种科技期刊,以及COPE、ICMJE两大学术出版伦理组织公开的AI使用政策文本作为研究样本,分析总结其科研诚信治理经验,进而提出AI时代中国科技期刊科研诚信治理体系的创新路径。
1 AI时代国际主流科技期刊科研诚信治理的经验
国际主流科技期刊及其期刊出版机构通过制定精细化规则、运用技术检测工具和构建伦理共识,在促进学术创新的同时对AI时代的科研诚信进行风险管控,形成了多层次、差异化的实践体系,其经验可归纳为三大核心策略。
1.1 从全流程管控到关键环节监管的分级治理框架
为了更好地维护科研诚信、保障科研质量和促进AI技术的规范使用,国际主流科技期刊普遍采用全生命周期管理理念,将科研诚信治理嵌入从投稿到出版的各个环节,建立从全流程管控到关键环节监管的分级治理框架。[4]流程管控具体内容包括制定明确的伦理原则、建立完善的治理框架、加强数据安全保护、提升AI系统的透明度和可解释性,以及重视人类参与等。关键环节监管侧重于对论文撰写和发表过程中容易出现问题或风险较高的环节进行重点监控和管理,例如数据造假、论文抄袭等学术不端行为。在这个理念下,Nature、Science等国际主流科技期刊建立了“使用披露—内容限制—责任归属”的三级治理框架 [5],具体内容如下。第一,使用披露。使用披露的目的是提高研究过程的透明度,确保读者和审稿人了解AI在研究中的参与程度。要求作者在投稿时详细说明是否使用了AI工具,以及AI在研究中的具体应用环节,例如数据分析、文献检索或写作辅助,并要在论文的研究方法章节中详细描述AI工具的使用情况。第二,内容限制。内容限制的目的是防止AIGC影响论文的原创性和学术价值,避免学术不端行为。不允许直接使用AI生成的文本、图像或图表;允许AI在文献检索、数据整理与分析等辅助研究环节的运用,但要规范使用。第三,责任归属。明确责任归属的目的是明确作者在使用AI时的责任,确保科技论文的学术诚信和研究质量。要求作者保证论文的核心观点、实验数据和结论均由人类独立完成;[1]要求作者对论文的全部内容负责,包括AI生成部分可能存在的错误、偏差或抄袭问题。这种分级治理模式体现了科技期刊对AI技术的审慎态度,既承认其在提升学术表达效率方面的价值,又严格防范其可能带来的学术不端风险。当然,这一框架在实践中也面临一些挑战。例如,如何准确界定AI在基础文字润色与核心学术内容撰写间的边界,如何确保作者对AI辅助生成内容的完全责任,以及如何应对技术发展带来的新问题等。
1.2 按学科敏感度风险特征实施差异化管控
由于对不同学科的研究对象、方法和伦理的考量存在差异,对AI的使用采取差异化管控是必要的。国际主流科技期刊针对不同学科的特点和风险特征,设计了差异化的管控红线,以平衡学术创新与伦理风险。
自然科学领域对AI技术的使用普遍采取相对包容的态度。自然科学类期刊鼓励发表关于AI在自然科学领域应用的突破性研究,例如在生物学、化学和物理学中的应用。[6]同时,自然科学类期刊也关注AI技术可能带来的伦理和社会风险,并呼吁建立负责任的AI治理框架。如Springer Nature在方法描述中允许记录大型语言模型的使用情况。医学领域关注AI在医疗诊断、治疗和健康管理中的应用,侧重于保护患者隐私,并确保AI系统的准确性和可靠性,以及规范AI在医疗决策中的使用。[7]相比而言,医学类期刊对AI技术的使用采取更为严格的管控措施。通常要求研究者提供AI生成内容的详细来源和质量控制方法,以及完整的数据来源和算法验证报告,这些内容还必须经过多轮专家审核。在工程技术领域,AI算法常被用于数据处理,例如数据清洗、特征提取、模型训练等。[8]因此,工程技术类期刊允许使用这些算法,但前提是必须详细披露算法的原理、参数设置以及处理过程,确保读者能够理解和评估算法对数据的影响。为确保实验可复现性,工程技术类期刊要求研究者必须提供充分的实验细节和数据,使得其他研究者能够在相同条件下重复实验并获得类似的结果。总之,这种基于学科敏感度的适配性管理,不仅为学术界提供了明确的指导,也AI技术的健康发展奠定了基础。国际主流科技期刊AI治理的学科差异化策略见表 1。
表 1 国际主流科技期刊AI治理的学科差异化策略
| 学科类型 | 代表期刊 | AI使用边界 | 核心管控目标 |
| 自然科学 | Cell、Nature | 允许文献检索辅助,需声明训练数据集 | 维护研究方法透明度 |
| 医学健康 | The BMJ | 允许语言润色,禁止结果解释 | 保障临床决策可靠性 |
| 工程技术 | IEEE TPAMI | 允许算法辅助数据处理,要求代码开源 | 确保实验的可复现性 |
1.3 构建兼顾检测与认证技术的人机协同防御体系
面对AI生成内容(AIGC)的泛滥,国际主流科技期刊及其出版机构正加速部署“技术检测—人工审核”的双重防线。目前,主流技术检测系统主要依赖文本特征分析与元数据标识两大路径。
一是特征分析法。特征分析法通过识别文本中存在的“模式化表达”来判断内容是否为AI生成,这种方法依赖于AI在生成文本时所表现出的一些固有特征,如句式一致性过高、缺乏灵感跳跃、其他语言模式等。[9] AI在生成文本时,可能会过度、重复使用某些句式结构,导致文本缺乏变化和自然性。相比于人类作者,AI在创作过程中缺乏灵感和创新,导致文本内容相对平铺直叙,缺乏意料之外的转折和亮点。AI生成文本可能在词汇选择、语法结构和语义表达上呈现出与人类写作不同的模式。[10]据称,中国知网AIGC检测系统通过特征分析法已达到80%的准确率,接近人类编辑水平。然而,随着AI技术的不断发展,AI生成文本的质量也在不断提高,越来越接近人类写作的风格。这使得通过简单的模式识别来区分AI生成文本和人类创作文本变得更加困难。此外,特征分析法容易受到文本风格、主题和领域的影响,可能在某些特定类型的文本中表现不佳。
二是隐式数字水印技术。为AI作品添加不可见的元数据标识,可以实现对作品全生命周期的溯源。为了进一步提升AIGC的可追溯性及AIGC检测的可靠性,隐式数字水印技术应运而生。这种方法通过在AIGC中嵌入难以察觉的数字水印,从而验证内容的来源和真实性。隐式数字水印技术具有可追溯性、防篡改、鲁棒性等优点。通过数字水印,可以追踪AI生成内容的来源,从而明确作者责任;检测内容是否被篡改,从而保证内容的完整性。优秀的数字水印技术还能够抵抗一定的攻击和干扰,保证水印的有效性。[11]然而,隐式数字水印技术在技术检测、标准统一、隐私问题等方面也存在一些固有的局限性。因此,《柳叶刀》等期刊采用内容验证三步法:先用机器查重,再由学科编辑评估逻辑连贯性,最终由作者签署原创声明。这种“技术筛查—人工验证—责任锁定”的递进式防线,为我国期刊提供了实操范本。
2 构建AI时代中国科技期刊科研诚信治理体系的着力点
基于国际经验与中国国情,我国科技期刊需突破“被动合规”的传统路径,转而建立前沿性治理框架,构建兼顾创新激励与风险控制的AI时代科研诚信治理系统。
2.1 构建底层治理框架
FAIRE模型由湖北省科技信息研究院陈晓峰提出,旨在应对AI技术发展背景下科技期刊的系统化转型难题,包含五个关键维度。[12]其中,基础设施、增强型编辑流程、监管适配体现出AI治理的底层逻辑,也是科研诚信治理的着力点所在。本文在此基础上作进一步拓展。在基础设施层,着力于保障内容生成的透明性与可追溯性。通过建立分布式AI验证平台,集成区块链存证与跨模型检测功能,确保AI系统的可信运行。区块链技术可提供不可篡改的链式记录,用于验证训练数据来源与算法沿革,从而增强科研成果的可追溯性。跨模型检测则通过比对不同AI模型在相同任务中的表现一致性,降低因模型差异导致的不确定性。这一层面的治理着力点在于构建可验证的数据与算法底座,避免“黑箱化”带来的诚信风险。在编辑流程层,着力于保持学术判断的核心权威。通过人机协作与AI功能域隔离,实现效率与学术判断力的平衡。人机协作编辑系统可将AI功能嵌入文献筛选、格式校对等环节,而创新性评估、学术价值判断等核心环节则需锁定为人类编辑的专属权限。[13]这种设计既发挥了AI的辅助作用,又防止过度依赖AI可能引发的偏差或错误,治理着力点在于守住学术评价的价值底线。在监管适配层,着力于确保风险可控与动态调节。可通过建立“动态沙盒”机制,让部分期刊在受控环境下测试AI审稿的结果。借鉴沙特SFDA对医疗AI实施的“变更阈值预警”制度 [14],当算法迭代超出预设参数范围时,系统将自动触发人工干预。这样既保留了AI优化效率,又防止算法过度迭代带来的潜在风险,治理着力点在于构建动态可控的风险防火墙。
2.2 转向主动伦理建设
借鉴国外经验,AI时代我国科技期刊科研诚信治理亟须从被动合规转向主动伦理建设,通过可视化伦理承诺提升学术共同体信任。具体实施路径包括:伦理审查、算法偏差矫正和构建伦理信任标识体系。一是设立科技期刊AI伦理委员会与双盲伦理评审机制。建立由技术专家、伦理学者和学科编辑组成的AI伦理委员会,制定《AI辅助研究伦理评估清单》,特别是针对内容涉及人类受试者数据等的高风险论文,实施双盲伦理评审。确保研究过程和结果符合伦理标准,保护受试者的权益,并提高研究的透明度和可信度。二是开发算法偏差矫正工具。算法偏差是AI应用中的一个重要伦理问题。针对中文语境特点,建立本土化偏见词库,并开发算法偏差矫正工具,识别和修正学术文本中潜在的冒犯性表述。开发“文化敏感性过滤系统”,通过技术手段减少算法偏差,提升AI在学术研究中应用的公平性和包容性。Ghai提出了一个名为D-BIAS的可视化交互工具,用于处理算法偏差,尽管该工具并非专门为中文语境设计,但其人机协作的思路可供借鉴。[15]三是构建伦理信任标识体系。在AI时代,科技期刊可以通过构建多层次的伦理信任标识体系来提升公众信任和学术影响力,具体内容包括:建立伦理框架、明确伦理准则、加强伦理审查,提高透明度、实施数据治理、促进可解释人工智能(XAI)的应用、进行风险评估、实施外部伦理评估以及重视伦理教育,奖励负责任的研究行为,并进行信任评估和定期的伦理报告与披露等。
2.3 做好政策标准衔接
要打通科研诚信治理孤岛,我国需将AI时代科技期刊科研诚信治理纳入国家创新体系整体布局。当前关键任务是与《人工智能生成合成内容标识办法》(以下简称《标识办法》)形成协同监管网络,并在技术标准、主体责任和跨境协作三个方面重点推进衔接。一是技术标准衔接。将《标识办法》要求的隐式数字水印技术融入投稿系统,实现学术内容从生成到出版的全链条溯源,确保内容可信度。中国信息通信研究院的“1244”框架中的风险动态评估机制能够为算法偏见、隐私泄露等衍生风险提供持续跟踪和技术支持。二是主体责任衔接。针对学术不端行为,构建“三角责任”认定模型,明确作者、技术提供商和期刊的责任比例。其中,作者是学术论文的第一责任人,需对论文的原创性、真实性和准确性负责。技术提供商和科技期刊也是重要责任主体,技术提供商提供的软件、平台和服务,在数据分析、论文撰写、查重等方面发挥着关键作用;科技期刊通过同行评审制度、编辑审查制度、建立黑名单制度,限制学术不端论文在期刊上发表,并向其他期刊通报,形成联合抵制机制。三是跨境协作机制。积极参与ISO/TC 176(Quality management and quality assurance)等国际标准制定,推动中英文AIGC伦理术语库建设,重点解决文化差异导致的治理冲突。
3 AI时代我国科技期刊科研诚信治理的前瞻性布局
随着人工智能与大数据技术的发展,科研数据和算法模型的透明性、可追溯性与合规性成为科研诚信治理面临的新挑战。“敏捷治理体系”是一个将敏捷理念应用到组织治理和管理中的框架,它强调快速响应变化、持续改进以及以价值交付为核心。与传统的刚性治理(强调严格流程、固定规则和层级控制)不同,敏捷治理体系更灵活、扁平,并且注重透明、协作和自适应。面向未来的敏捷治理体系建设,我国科技期刊应在多元协同、能力建设和技术创新三个维度进行前瞻性布局。
3.1 多元协同治理生态
首先,构建包容性治理架构,打破机构壁垒,实现政策制定者、期刊出版机构、科研人员和技术服务商的协同参与。技术治理效果依赖跨利益主体的规范共识,尤其在涉及国家安全与经济利益的关键技术领域。其次,建立纵横结合的协作网络。纵向构建“国家期刊智库—区域中心—期刊集群”三级体系,国家期刊智库提供算法伦理指南,区域中心推动技术转化,期刊集群实施场景化测试;横向组建“期刊AI治理联盟”,共享检测资源与违规作者数据库,实现对AI生成内容的自动识别与审查。最后,推动跨境互认体系。在“一带一路”科技期刊联盟框架下,引入智能化审核工具,构建“伦理白名单”互认机制,完善科研诚信标准,实现跨境数据与算法模型的安全、合规流动。互认机制的建立,不仅能提升论文审核效率和学术规范水平,也能为科研生态的健康发展提供支撑。
3.2 期刊能力建设
期刊能力是科技期刊科研诚信治理的重要保障,其建设可从三个层面切入。一是人才知识结构革新。其一,可考虑在出版专业硕士培养中增设“算法编辑”方向,课程涵盖机器学习基础、伦理决策模型等。[16]其二,系统性提升编辑的“算法素养”。开展针对性职业培训,重点培养科技期刊编辑对算法原理、应用场景、风险评估及伦理影响的认知能力;构建学习交流平台,鼓励科技期刊编辑分享学习心得与实践经验,营造良好的学习氛围。[17]二是技术防护能力升级。当前,多模态检测技术已在多个领域取得突破性进展。例如,在深伪检测领域,防御性注意力机制的应用显著提高了检测精度;在AIGC真实性验证方面,IVY-FAKE框架可提供解释性检测结果。有针对性地开发科技期刊多模态检测技术,可以显著提升检测的准确性、鲁棒性和可解释性。三是资源配置优化能力提升。针对我国科技期刊“散、小、弱”的特点及其在AI时代科研诚信治理方面面临的资金、人才和技术瓶颈,建议建立“治理成本共担”基金,重点资助困难期刊购买检测服务。遵循“敏感度优先”原则,优先支持两类期刊:涉及个人身份信息、基因数据、医疗记录等、敏感内容的期刊及承载前沿技术和创新成果的期刊。
3.3 治理技术创新
要突破现有科技期刊科研诚信治理中“猫鼠游戏”的困局,必须从根本上推动技术创新。当前亟须攻关方向有以下三个。一是可验证学习技术的创新。可验证学习技术有助于确保机器学习模型在训练和推理过程中的可信度,同时保护数据隐私。在这一领域,零知识证明发挥关键作用:它允许一方(证明者)向另一方(验证者)证明某个陈述为真,而无需泄露额外信息。[18]科研机构、期刊技术团队及合作高校可联合开发基于零知识证明的验证框架,使科技期刊在不访问训练数据的前提下验证结论可靠性。二是动态水印与隐写技术的创新。动态水印技术通过嵌入可随内容变化而更新的信息,提高抗去除性;隐写技术则侧重隐藏信息本身,使其难以被察觉。科研技术团队可研发抗去除的隐写标识,在AI生成文本中植入不可感知的文化特征标记。相比传统数字水印,该技术对文本语义的干扰可降低约90%,为科技期刊提供可追溯的原创性保护手段。三是跨文化伦理算法的构建。传统观点常将文化视为统一伦理标准的障碍,而Collste提出“文化共生的人工智能伦理”概念,认为伦理价值观应通过跨文化互动产生,而非将文化视为孤立道德体系的边界。[19]在此框架下,AI算法设计应充分考虑不同文化之间的伦理差异与共性,促进跨文化理解与尊重,避免强化文化偏见。这一方向的创新可由期刊伦理委员会联合高校科研团队和AI技术企业共同推进。
4 结语
人工智能与学术出版的融合已势不可挡,科技期刊正经历从“内容容器”向“知识引擎”的范式转变。构建负责任创新的学术生态是科技期刊应对AI技术快速发展带来的伦理和社会挑战的关键。AI时代我国科技期刊在科研诚信治理进程中,既需汲取国际主流科技期刊的先进经验,更应立足中文语境与文化特性,构建具有学术自主性的治理体系。通过构建底层治理框架,在主动伦理策略中彰显学术责任,在技术标准建设中掌握规则话语权,中国科技期刊完全有能力将AI带来的科研诚信治理挑战转化为学术质量跃升的历史机遇,为全球学术共同体贡献中国范本。
参考文献
A survey of AI-generated content(AIGC)
[J].
A Nature survey of 5000 researchers finds contrasting views on when it's acceptable to involve AI in research papers and what needs to be disclosed
[J].
The importance of transparency:Declaring the use of generative artificial intelligence in academic writing
[J].
Publishers'and journals'instructions to authors on use of generative artificial intelligence in academic and scientific publishing:Bibliometric analysis
[J].
AI meets physics:A comprehensive survey
[J].
Ethical AI in healthcare:Balancing innovation with privacy and compliance
[J].DOI:10.36676/dira.v12.i3.97 [本文引用: 1]
Automated data processing and feature engineering for deep learning and big data applications:A survey
[J].DOI:10.1016/j.jiixd.2024.01.002 [本文引用: 1]
A zero watermarking approach for content authentication and tampering detection of Arabic text based on fourth level order and word mechanism of Markov model
[J].
AI meets academia:transforming systematic literature reviews
[J].
Exploring an early warning system for maritime security risks:An approach based on compressed sensing
[J].
D-BIAS:A causality-based human-in-the-loop system for tackling algorithmic bias
[J].
Self sovereign and blockchain based access control:Supporting attributes privacy with zero knowledge
[J].
Communication of ethics across cultural boundaries
[J].DOI:10.1177/03921921221080805 [本文引用: 1]
/
| 〈 |
|
〉 |
