科技与出版, 2025, 44(8): 5-15 doi:

专稿

AI驱动下的学术创作范式重构——基于七位跨学科专家观点类编与深度述要

本刊编辑部

《科技与出版》杂志社,100084,北京

A Paradigm Shift in AI-Assisted Academic Writing: A Compilation and In-Depth Summary Based on the Views of Seven Interdisciplinary Experts

Editorial Office

Eitorial Office of Science- Technology & Publication, 100084, Beijing, China

Abstract

The rapid advancement of generative artificial intelligence (AIGC) is profoundly reshaping the entire academic production chain, offering unprecedented efficiency gains while introducing significant ethical challenges. This article synthesizes insights from seven leading experts across diverse fields—including computer science, law, information science, and publishing— to explore the transformative impact of artificial intelligence (AI) on academic creativity from three dimensions: technological implementation, ethical and normative reconstruction, and future ecosystem development. From a technological perspective, AI is evolving from a mere tool to an active "collaborator." As Li Xiu (Tsinghua University) argues, based on Bloom's Taxonomy, AI efficiently handles lower-order cognitive tasks (e.g., information retrieval, terminology translation, and case enumeration), freeing researchers to focus on higher-order tasks such as analysis, evaluation, and creativity. This "cognitive co-evolution" between humans and AI represents a paradigm shift in academic work. Shen Xibin (Chinese Medical Journals Publishing House Co., Ltd.) further emphasizes AI's role as a "thinking partner" that expedites writing and enhances logical coherence, while Liu Li (Zhipu AI) notes its expanding utility across research ideation, literature review, data visualization, and manuscript polishing. However, these advancements bring critical ethical dilemmas. Wang Qian (East China University of Political Science and Law) demonstrates through empirical testing that AI can generate academically plausible yet ethically problematic content—including fabricated citations and data—raising questions about authorship accountability. The distinction between "AI-generated" and "AI-assisted" content, as defined by the World Intellectual Property Organization (WIPO), becomes crucial in determining academic integrity. Internationally, organizations such as COPE and ICMJE discourage attributing authorship to AI but advocate for transparent disclosure of its use. Yet, as Xu Lifang (Wuhan University) warns, the proliferation of AI-generated fraudulent papers in sensitive fields like health and environment undermines the evidence base of public knowledge. The governance of AI in academia requires a balanced approach. Xu proposes a "moderate regulation" model that avoids the pitfalls of outright prohibition (which stifles innovation) and privileged access (which exacerbate inequities). Instead, she advocates for dynamic, risk-based governance—e.g., pre-approval ethical reviews for high-risk fields like gene editing, sandbox testing for clinical applications, and traceable AI-use reporting in publishing. Zhang Xin (Society of China University Journals) adds that while over 24% of major global publishers have issued AI-use guidelines, detection technologies remain immature, with an average accuracy of only 50-60% in identifying AI-generated text. Looking ahead, AI is poised to further integrate into academic workflows, enabling personalized research assistance, cross-lingual "secondary creation, " and intelligent academic search engines. However, as Chu Jingli (Chinese Academy of Sciences) emphasizes, AI cannot replace human creativity—the core of academic research. The future ecosystem must be one of "human-AI symbiosis, " where humans remain ultimately responsible for steering research direction, ensuring ethical standards, and exercising critical judgment. In conclusion, this article calls for a collaborative effort among researchers, publishers, AI developers, and policymakers to build a responsible academic ecosystem—one that embraces AI's efficiency while safeguarding integrity through robust governance, transparency, and continuous human oversight.

Keywords: AI ; AIGC ; academic writing ; research ethics ; human-AI collaboration ; cognitive paradigm

PDF (1426KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

本刊编辑部. AI驱动下的学术创作范式重构——基于七位跨学科专家观点类编与深度述要. 科技与出版[J], 2025, 44(8): 5-15 doi:

Editorial Office . A Paradigm Shift in AI-Assisted Academic Writing: A Compilation and In-Depth Summary Based on the Views of Seven Interdisciplinary Experts. Science-Technology & Publication[J], 2025, 44(8): 5-15 doi:

2022年底以来,以ChatGPT、DeepSeek为代表的大语言模型席卷全球学术界,掀起了一场前所未有的变革浪潮。AI以前所未有的速度和深度渗透到学术研究的各个环节,从文献检索、数据分析到论文撰写、观点生成,再到逻辑论证和文本润色,AI正在重新定义学术创作的基本流程和范式。清华大学计算机科学与技术系李秀副教授一针见血地指出,AI辅助学术创作的问题“本质上是技术、认知与学术规律的交叉”,这一深刻见解揭示了当前学术变革的多维本质。

学术界对AI的接受程度呈现出明显的代际分化特征。中国科学院文献情报中心初景利教授认为年轻研究者大多成为热情的“早期采纳者”(earlier adopter),积极拥抱这项新技术;而资深学者则往往表现出更为审慎的态度,成为“晚期采纳者”(late adopter)甚至“永不采纳者”。他精准地分析了这种现象背后的认知差异:如果将人工智能生产内容(AIGC)视为“功能属性”,那么它可能在很大程度上替代人力;如果视为“工具属性”,则始终作为辅助性工作发挥作用。这种认知分野直接影响着学者们对AI技术的接受程度和应用方式。

AI在学术文本生成方面展现出显著效能,但其实际应用伴随多重潜在风险。华东政法大学法律学院王迁教授进行了一项引人深思的测试:ChatGPT-o1仅根据700多字的提示词(包含论文主题、基本观点和论证思路),就生成了一篇近万字的法学论文。更令人惊讶的是,经过两轮基于百余字修改提示词的调整后,这篇AI生成的论文作为“本科毕业论文”竟然通过了3位校外专家的双盲评审。这个案例既展示了AI辅助创作的巨大潜力,也揭示了其背后隐藏的伦理风险。

面对技术的迅猛发展带来的诸多争议和挑战。武汉大学出版研究院徐丽芳教授也发出警示:AI既可以是科研效率的加速器,也可能动摇学术根基;治理的关键,是在释放技术潜力与坚守学术底线之间达成某种平衡。2024年谷歌DeepMind的长篇报告指出全球实验室的AI使用呈现指数级增长,并预测AI for Science的黄金时代即将来临。但与此同时,学者在分析谷歌学术中一系列由GPT伪造的可疑论文后,发现很多论文集中在易受虚假信息影响并且极具争议性的应用领域如环境、健康等,这意味着恶意操纵社会证据基础的可能性增加了。

本文基于多位领域内权威专家的深度观点,从技术实现与认知机制、伦理边界与学术规范重构、未来生态展望3个维度,系统而全面地探讨AI辅助学术创作的现状、挑战与未来发展方向,旨在为推动构建负责任的人机协作学术生态提供理论参考和实践指南。

1 AI辅助学术创作的技术实现与认知机制

1.1 从工具到协作者:AI在学术创作中的角色升级

AI在学术创作中的角色定位正在发生根本性转变——从单纯被动执行的工具向主动参与的协作伙伴演进。李秀结合自身教材编写实践,深刻指出:基于布鲁姆分类法,AI处理了记忆层(提取技术)、理解层(转化术语)、应用层(列举案例)等低阶任务,让教师的元认知能全程聚焦每个环节是否服务于技术人文的核心目标。在这种精细化分工模式下,“人机协作”能力的核心便是与AI形成认知互补的动态平衡的协同,既非完全依赖AI(100%的AI意味着粗制滥造),也非拒绝技术赋能(0%的AI意味效率低下重复劳动),这也代表了新一代学术工作范式的确立。

中华医学会杂志社新媒体部沈锡宾主任以其亲身的写作实践为例,生动描述了AI如何成为真正的“思辨伙伴”:“我还是会将自己的想法交给大模型进行一次‘思辨’——先让它理顺我的观点和文字,再让它反向质疑我的想法。这种来回推演的过程,与我长期以来的写作习惯并无二致:先将文本结构框定,再不断推敲与修葺。”他特别强调,AI让写作过程显著加速,“我在思维推进时不再因为某个词汇不够精准,停下来长时间思考,打乱写作节奏,也不会因为对仗不工整而显得文笔无力,或者因为专业名词词不达意显得佶屈聱牙”。这种体验代表了大多数早期采纳者的共同感受。

AI的协作价值在学术创作的全链条多环节得以具体体现。智谱AI学术创新中心刘丽主任系统总结道:AI在学术选题、研究框架搭建、文献检索、核心论点总结、语言润色等方面已经能够提供有效支持。沈锡宾进一步补充指出:AI还能协助科研人员完成选题策划、灵感启发、文献综述与资料整合、提纲规划、图表绘制、数据可视化乃至统计分析和方法学复演等工作,正从“可选项”变为科研和学术出版工作者的“基础设施”。

1.2 认知协同:人机协作的学术创作新生态

AI辅助学术创作的深层本质是人类认知与技术工具的深度协同和共同进化。李秀提出了极具洞察力的“认知协同进化”理论:人类的认知能力并非静态存在,而是与工具协同进化。很多人包括其本人都是在实践了AI协同完成任务后,再回到独立完成任务状态时,感觉就像回到了石器时代。她认为这种“无法退回”的现象本质上是工具重塑认知范式后的必然结果,正如人类发明文字后,不会再退回到纯口头记忆的时代。基于布鲁姆分类法,李秀进一步分析了人机认知分工的具体机制:认知是指人类获取、处理、存储和应用信息的一系列心理过程。其基础是对信息的加工,形成从输入到输出的完整链条。这个链条的每个环节,都对应着布鲁姆分类法中的6个具体层次:记忆是“存储与提取”的基础,理解是“编码与初步转化”的结果,应用、分析、评价和创造则是“深度加工”的不同表现。AI辅助学术创作的本质,正是通过优化信息处理链条,为人类认知节省资源,使其能更专注于“意义建构”与“突破性问题解决”。

有效的人机协作需要研究者具备全新的能力结构。刘丽系统地指出,随着大模型时代的来临,科研工作者需要培养一系列新的能力,包括:了解和使用多个大模型工具的能力——例如语言大模型、多模态大模型等;生成提示词和结构化提问的能力——在大模型辅助创作中,提示词的质量直接影响输出结果,因此,科研工作者需要培养精准表达研究需求、结构化提问、迭代优化提示词的能力。例如,明确任务目标、限定输出范围、指定格式等,以确保AI生成内容的相关性和准确性;信息甄别与判断能力——大模型生成的内容可能存在信息偏差或错误,科研工作者需具备较强的信息甄别能力,能够对AI输出进行验证和批判性分析。例如,通过交叉验证文献来源、判断逻辑合理性等方式,确保生成内容的科学性和可靠性;持续学习与技术适应能力——大模型技术发展迅速,科研工作者需保持持续学习的态度,及时掌握新技术、新工具的应用方法。

然而,正是在这种人机协作的新生态趋于成熟之际,我们更须回归对学术研究本质的叩问。初景利对学术研究的本质提出了深刻见解:学术研究最需要的是学术创造力。为此,我们要重新审视AIGC能够为学术研究带来什么,不能给我们带来什么。学术研究是一个十分复杂的任务,主体上遵循提出问题—分析问题—解决问题的过程,其背后是创新过程。创新就是对已有知识的超越、突破或颠覆;为此,需要批判性思维、良好的创意、独特的思考、科学的研究方法、充分的数据支持、严谨的论证过程、有价值的研究结果、创新性研究结论。所以,无论是学术研究事业还是个人,最重要的是要经受科学研究的训练,包括:严谨的思维、科学的方法、学术研究规范、科研诚信、科研能力、创新能力等。创新乃科学研究的基石,这绝非一日之功。人与人之间科研水平的差异,也在于所受到的科学研究训练的差异。卓越的科研能力,需要日积月累、滴水穿石、水到渠成,切不可以急功近利、急于求成,欲速则不达。这一观点强调了人类创造性在学术研究中的核心地位。

协作的终极目标并非效率的无限提升,而应是创造力的永恒迸发。

1.3 案例实证:AI在学术创作中的实际应用

在教材编写领域,李秀分享了丰富而深刻的技术通识教材编写实践经验。她指出:技术通识教材的读者多为非专业群体,编写的核心和难点是让抽象的技术原理被直观理解。这要求编写者必须完成“语言系统”与“非语言表象系统”双系统的深度整合。AI可生成技术原理的文字描述(语言系统),但无法自主创造能引发受众直觉理解的表象符号,此时,人的核心价值体现为转化能力,基于对学生认知难点的隐性把握(认知盲区),将AI生成的文字内容转化为“文字+图像+生活案例”的复合表达。李秀举例说明:以“人工神经元”知识点为例,一方面要与其模拟的生物神经元关联,一方面还要为接下来的关键概念人工神经网络、深度学习和大模型铺垫理解基础,教师设计了一个能感知“烫”的人工神经元,解释清楚其中必要的概念:输入、输出、权重和激活函数。她强调:技术知识的可传播性仅需语言系统的准确性,但可理解性必须依赖非语言表象系统的支撑,人的核心价值在于把控双系统整合的有效性,让知识从可传播升级为可理解。

在论文写作领域,王迁的测试展示了AI的强大生成能力和潜在风险。前述案例既展示了AI辅助创作的巨大潜力,也揭示了其伦理风险。测试中还发现,生成论文中有相当一部分注释纯属伪造,比如捏造了我国著名刑法专家独著著作权法专著的注释。因此,王迁将此文送专家盲审之前,不得不删除或替换了此类注释。这个案例生动说明了AI辅助学术创作需要严格的人工监督和内容核查。

中国高校科技期刊研究会张昕秘书长指出全球学术出版机构正在积极发挥AIGC的效率倍增作用,整合知识数据库,不断推出AI辅助工具。爱思唯尔开发了Scopus AI系统,支持文献综述、理论框架构建、科研进程梳理、知识关联分析等;施普林格·自然推出AI驱动写作助手Curie,支持研究人员的科技论文写作;威科集团与《新英格兰医学杂志》合作,推出NEJM AI平台,推动AI在医学论文界的应用;同方知网和华为推出了华知大模型,解决知识服务领域的数据不足和模型精度问题;方正电子将AI深度融入媒体业务全流程,与华为联合推出“DeepSeek一体机”解决方案;中华医学会杂志社推出了“MedAI助手”,并与讯飞医疗开启面向医疗大模型深度探索及智慧医疗知识服务平台建设的深度合作。张昕还提供了具体数据支持:2022年AIGC得到井喷式发展,在科研领域快速渗透。有研究表明,相比不知道大模型的科研人员,知道大模型的发表的论文数量更多。有研究针对1600多名科学家开展调查显示,近30%的受访者曾使用AI工具辅助撰写论文。这些工具和数据表明,AI辅助学术创作已经深入学术生产的实际环节中。

2 伦理边界与学术规范的重构

2.1 署名、贡献与透明性:AI使用的学术伦理挑战

AI辅助学术创作引发的首要伦理问题是署名权与贡献度的认定标准。王迁引用了世界知识产权组织(WIPO)发布的《经修订的关于知识产权政策和人工智能问题的议题文件》,该文件在“定义”部分明确区分了“人工智能生成的(AI-generated)”与“人工智能辅助完成的(AI-assisted)”两个关键概念:前者指“没有人类干预的情况下由人工智能生成产出”,是与“人工智能自主生成的(generated autonomously by AI)”可以互替使用的术语;后者则“需要大量人类干预和/或引导”。这里所说的“没有人类干预”当然不是指人工智能会凭空自行生成内容,因为人工智能都需要根据用户的提示词生成内容,而是指根据提示词生成内容的过程是由人工智能自行完成的。这一区分对于界定AI在学术创作中的角色具有重要意义。

王迁对此进行了深入的法理分析:如果研究者所从事的学术研究活动并没有在实质上被人工智能所取代,人工智能只是起到了类似于图书馆、工具书和数据库的辅助作用,比如在检索并“阅读”了相关领域的100篇论文后,总结出主要观点和论证思路供研究者参考,或者人工智能起到了类似研究生导师在指导研究生论文写作时提供思路和修改建议的辅助作用,比如根据文献分析的结果提出了几个可供选择的研究方向,或者人工智能起到了类似学术期刊编辑的作用,如对研究成果修改错别字和病句,将过长的句子进行拆分,在不改变文意的情况下提高其可读性,则研究者的工作不会被认为有违学术规范、构成学术不端。王迁进一步尖锐地指出:如果所谓“研究成果”是人工智能根据提示词生成的,则无论提示词的设计本身如何富有创意,都不能认为是提示词的设计者完成了“研究成果”。他论证道:输入几百字的提示词就能生成万字“论文”。而这几百字的提示词不会被学术共同体认为是该“论文”本身。如果将相同的一套提示词输入10种不同的人工智能,10种人工智能生成的10篇“论文”会相距甚远。如果认为设计一套提示词就等于“创作”了人工智能生成的“论文”,那么提示词的设计者只设计了一套提示词,显然只实施了一个“创作”行为,难道一个创作行为就创作了10篇截然不同的论文(科研成果)?王迁强调了研究者对AI生成内容的最终责任:研究者一旦在人工智能生成的“研究成果”上署名,就应当对该内容在学术上的真实性和严谨性承担责任。将人工智能生成的“事实”、数据和图片作为客观事实和本应经过学术研究才能获取的数据、图片予以呈现,当然严重违反了学术规范。

沈锡宾从出版实践角度介绍了国际学术组织的规范进展:国际医学期刊编辑委员会(ICMJE)和出版伦理委员会(COPE)均建议作者不得将AI列为署名作者,但可以在方法或致谢部分披露其使用情况。但他同时指出:有些规范还停留在原则层面,缺乏执行路径与监督机制,并且在国内,大多数期刊的投稿指南中并没有强制披露AI使用的选项,也没有可供核查的佐证材料。这种规范缺失状态导致了许多潜在风险游走在灰色地带。

徐丽芳深刻分析了学术共同体对AI接纳的分化现象:若AI仅用于语法检查、优化表达等辅助工作,本质是文本辅助工具;但当AI依据提示生成大段甚至完整内容时,便构成生成式创作。这引发了原创性、准确性与作者身份的伦理争议。因为生成式AI的训练数据来源庞杂,其输出内容的真实性难辨,“幻觉”现象频发,还可能暗藏抄袭与版权问题。因此,学术出版领域普遍要求明确披露内容中的AI生成部分,部分情形下,出版机构还会依据出版道德委员会制定的指南,对未合规披露或不符合规范的AI生成内容采取限制发表乃至拒稿的处理措施。

刘丽特别强调了AI工具开发和应用中的伦理规范问题:近年来,随着人工智能在学术研究中的广泛应用,国内外都陆续出台了多项涉及学术伦理的人工智能标准、规范或准则,旨在引导AI技术的合理使用。国家新一代人工智能治理专业委员会在2021年9月25日发布的《新一代人工智能伦理规范》,为AI工具的开发和应用提供了伦理指导。伴随着大模型技术的发展和应用落地,2023年7月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,为科技伦理治理指明了发展方向。2023年9月,科技部等十部门联合研究起草、经中央科技委员会同意并印发了《科技伦理审查办法(试行)》,将人工智能列入应设立科技伦理(审查)委员会的科技活动单位范围内。目前全球范围内被广泛认可的AI伦理标准包括:欧盟《可信赖人工智能伦理准则》、IEEE《人工智能伦理设计准则》等。这些国内外标准都为我国AI伦理治理提供了重要参考。

2.2 学术不端与数据失真:AI滥用的风险与治理

AI技术在学术领域的滥用已经导致了严重的“虚假引用”“署名争议”“数据失真”等问题。刘丽强调:在学术创作过程中,研究者应坚守确保学术诚信和学术伦理底线,在数据来源的合法性审查、数据质量的最终验证、数据解释与责任归属等方面必须承担最终责任。此外,在涉及敏感数据(如个人隐私数据、商业机密数据等)时,为避免泄露风险,研究者需对这类数据进行严格的访问控制和使用限制。

徐丽芳援引了一项令人担忧的研究:由ChatGPT生成的摘要被提交给学术评审人员,而评审人员仅识别出其中63%的伪造内容。针对科学界的担忧,OpenAI训练了一款分类器,用于区分人类撰写的文本与多个人工智能生成的文本。然而,即使在内部评估中,该分类器也仅能将26%的AI撰写文本正确识别为“可能由人工智能撰写”,而同时将9%的人类撰写文本误标为人工智能撰写。可见,无论是人工评审还是技术检测,当前对AI生成内容的甄别都存在明显短板。因此,检测技术的局限性与学术评价的模糊性,共同构成了治理的第一道难题。

沈锡宾担忧地指出了几种典型的AI滥用行为:有人借助大模型撰写论文,导致思维结构与表述方式同质化,长段文字似曾相识,却很难用传统抄袭检测去判定;也有人用大模型翻译整段的国外作品,试图蒙混过关;还有人利用AI伪造数据,让我们难以追溯。他特别警示:必须承认,围绕AI滥用的问题注定是一场“无休止的猫鼠游戏”。总会有人在利益驱动下,钻研取巧以规避监管,借助AI工具快速批量生成质量低劣的“水文”。那些所谓“论文工厂”的手段,以及他们对科研经费的攫取能力,远超乎我们的想象,而检测技术往往总是慢半拍。

张昕提供的数据值得深思:《自然》报道,有专家检测出超700篇含有AI生成内容的论文,其中有些甚至出现在顶级期刊上。在2024年被PubMed收录的150万篇生物医学论文中,有大约20万篇论文摘要存在大语言模型生成文本的迹象。他还指出:AI工具对全球论文英文润色产业造成了巨大冲击。这不仅改变了学术生产的生态,也带来了严重的学术诚信挑战。

初景利从科学研究本质角度发出警示:AIGC的本质是基于已有的知识库(语料库),通过一定的模型和算法,构建强大的检索能力,形成结果(答案)的输出。有什么样的知识输入,就会有什么样的知识输出,甚至可能“垃圾进、垃圾出”(garbage in,garbage out),因为已有的知识库良莠不齐,如果没有经过严格的筛选和过滤机制就使用,其知识输出是难以保证质量的。因此AIGC本身并不带来新的知识,而只是知识的重组。这一判断从根本上划清了AI与人类创造性思维的界限。

王迁从法学角度强调了AI生成内容的检测和标识问题:由于人工智能生成的内容与人类创作的内容在形式上越来越难以区分,有必要要求研究者披露其使用人工智能的情况,以便学术同行和评审者判断相关的研究成果是否由研究者独立完成。事实上,将于2025年9月1日生效的《人工智能生成合成内容标识办法》要求人工智能服务提供者提供智能写作等模拟自然人进行文本生成或者编辑服务时,应在人工智能生成的内容上添加标识。但是,这一规定还需要配套措施才能得到有效实施。例如,如果人工智能服务提供者未能遵循这一要求,应当承担何种法律责任?配套法规应当予以明确规定。再如,人工智能可以在其生成的文本内容中添加文字标识,比如“本文本由某某人工智能生成”,但该文字标识是极其容易被删除的。那么删除标识应当承担何种法律责任?著作权法将“故意删除或者改变作品……上的权利管理信息”以及“知道或者应当知道作品……上的权利管理信息未经许可被删除或者改变,仍然向公众提供”定为一种特殊的侵权行为。但该条只适用于受著作权法保护的作品,并不适用于人工智能生成的内容。因此需要配套法规将为使他人误认为该内容由某人创作,而故意删除人工智能生成内容中标识的行为定为违法行为。学术规则也应当作出相应的规定,即如果为了将人工智能生成的内容作为自己“研究成果”而删除相关标识,应被认定为学术不端。与此同时,在人工智能生成的非文本内容,如图片、音频、视频和计算机程序中加入一段只能被机器识别,而不易被人的感官所感知的隐形标识,在技术上的难度并不算高。但是需要统一的技术标准,也需要有符合该技术标准、与之配套的检测程序。如果对于在人工智能生成内容应添加的标识(特别是隐形标识)形成了统一的技术规范且普遍得到遵守,在此基础上开发出能够识别该标识的检测系统,且该系统根据人工智能生成内容的特征能够较为准确地识别人工智能生成的内容,则可以预期未来大学、研究机构、学术出版机构将普遍采用检测系统,作为判断相关内容是否由人工智能生成的参考依据。在这方面,学术界、人工智能开发者、出版方、政策制定者应当通力合作,通过完善政策法规、技术标准和学术规则,共同引导人工智能在学术创作领域的健康发展。

2.3 治理框架:构建多元协同、技术赋能与制度保障的综合治理体系

面对AI辅助学术创作带来的复杂伦理挑战,徐丽芳提出了具有革新意义的治理框架,并对“全面禁止”“特权使用”“适度调节”3种治理模式的核心特征与深层矛盾进行了精辟分析。

“全面禁止”模式以限制技术应用换取安全,实则有可能导致学术活力系统性萎缩的困境。基础科学研究会因失去AI对海量数据的处理能力,取得突破性进展的周期显著延长。基因测序等依赖算力的技术因成本回升而普及受限;罕见病等小众领域的研究因数据积累缓慢而陷入停滞。表面上,发展中国家与发达国家的技术工具差距暂时缩小,但这种“公平”以牺牲全人类知识生产效率为代价。原本可通过AI加速的研究被迫依赖人工,导致学术进步整体放缓。而更隐蔽的风险在于,禁令催生的“地下AI应用”将绕过伦理审查,其算法漏洞可能引发不可预测的科研事故,而监管缺位使其难以被及时发现和纠正。她认为“全面禁止”会导致风险与停滞的双输困境。

“特权使用”模式将AI工具的使用权集中于少数机构,因此可能加剧学术生态的失衡。顶尖机构凭借专属AI工具垄断高端研究成果,形成“技术壁垒—成果垄断—资源集聚”的闭环;而欠发达地区或中小型机构因工具限制,在关键领域的研究始终落后于优势群体。这种技术霸权不仅导致知识生产的马太效应,还引发“学术殖民”现象。部分巨头以技术援助为名掠夺发展中国家的研究数据与成果,挤压本土科研的生存空间。更严重的是,AI算法趋同使全球科研方向日益单一化。那些依赖多元工具支持的小众领域因缺乏关注而逐渐萎缩,最终窒息了创新生态的多样性。“特权使用”加剧了知识鸿沟与创新萎缩。

“适度调节”模式则通过分级分领域的动态治理,在风险防控与创新赋能之间寻求平衡。基础研究领域如基因编辑工具的分子作用机制研究,因涉及潜在生态风险,实施“伦理审查前置+实时监测”;要求AI预设伦理红线以规避危害生态的方案,同时操作日志需同步上传至全球监管平台确保可追溯。应用研究领域如新药研发,鉴于临床转化的高风险性,可采用“沙盒测试+事后追溯”机制;AI设计的候选药物需经过严格的虚拟验证与第三方审核,方可进入实体实验阶段。学术出版领域则应建立“AI创作溯源机制”,要求论文明确标注AI在各环节的参与情况,由期刊通过专用工具校验内容的原创性与引用的规范性。“适度调节”通过动态平衡机制实现了效率与公平的共生。

总之,徐丽芳建议,不论采取何种治理模式,在进行制度创新时须聚焦三方面的问题:责任认定上——明确AI是工具、人类是主体的原则,并用AI提示词的原创性与深度决定贡献程度,其中基础参数调整属于技术操作,创造性提示词则蕴含学术洞察。透明化机制上——建立并标准化AI使用披露制度,如同标注实验仪器参数般公开AI模型信息与训练数据范围。如此,既能消除研究者因“使用AI的耻感”而将精力浪费在掩盖痕迹上,也为成果验证提供了可追溯的技术路径。评价体系上——突破“唯论文”“唯期刊”的倾向,以问题原创性、方法严谨性、影响深远性为核心标准,凸显人类在提出新问题、评判科研成果价值等方面的独特作用。

张昕从治理生态角度指出:从治理生态看,“AIGC+学术出版”处于“过渡态”。他提供了国际治理进展的数据:据2023年底的一项调查,在全球排名前100的出版商中,24%提供了关于生成式AI使用的指导,国际出版伦理道德委员会(COPE),国际医学期刊编辑委员会(ICMJE)和国际科学、技术和医学出版商协会(STM)等组织出台AI使用的标准和指南。同时,绝大多数期刊使用Turnitin系统等工具来检测AI生成内容。

同时,张昕也指出了当前治理的技术局限性:目前检测技术并不完善,测试显示,学术界中经常使用的14种AI检测工具中只有5个实现超过70%的正确率,平均识别正确率仅有50%~60%。在国内,科技部监督司编制印发的《负责任研究行为规范指引(2023)》,从研究实施、数据管理、成果署名与发表、文献引用等方面指导依规合理使用生成式人工智能,中信所等国内外机构共同编制的《学术出版中AIGC使用边界指南》,明晰了相关利益主体在学术期刊论文准备、写作、投稿、评审、出版、传播各环节应该履行的最佳行为实践。但从政策效力来看,这些指导文件都有待进一步在科研界和出版界推广和应用,还没有建立强大的“防火墙”。

沈锡宾进一步补充道:要真正守护学术出版的公信力,不能仅依赖技术升级,必须将政策约束、同行评审和技术手段有机结合,形成可落地的闭环机制。他还针对学术期刊设计了具体的实施路径:技术层面——这并不是完全无解。即便之后,在图像伪造识别、来源水印嵌入、生成溯源等特定领域,技术与规则的结合已经显示出遏制某些特定风险的可能性。政策约束层面——应要求作者明确披露AI的使用情况,包括介入的环节、所使用的工具及其版本、操作流程,以及作者对生成内容进行人工复核与修改的说明。期刊编辑部要积极鼓励作者将AI辅助科研写作过程中产生的数据通过开放数据存储库进行提交,做到全流程透明化和可追溯。论文审查层面——应当建立分层的风险管理体系。第一层通过技术手段开展自动化检测,将可能存在问题的稿件标记出来,降低评审资源的浪费;第二层是人工复核,由具备领域背景的编辑或审稿人对文章进一步检查,在必要情况下,还应开展原始数据抽查或方法学复演,以确认研究的真实性与可重复性。学术治理阶段——还需要一套差异化的处置与追责机制。对于轻度违规,例如未披露AI润色,可以通过提醒和更正来处理;对于严重违规,例如数据造假或全文由AI生成,应果断采取撤稿与公开通报;对于恶意反复违规的作者,应当考虑纳入行业共享的黑名单,形成跨期刊、跨机构的惩戒合力。他还强调:这些规范必须变成可执行的日常操作,而非停留在文件上的文字。编辑部应在日常与作者的交互中,不断解释规则、回答疑问,并在审稿、编校和出版的各个环节固化生成内容再证实的流程节点。出版后期,还应引入开放的读者申诉与同行再评议机制,形成多方共治的生态。

3 未来展望:人机共生的学术新生态

3.1 认知范式升级:从“辅助”到“共生”

AI与学术创作的关系正在经历从简单辅助到深度共生的根本性转变。李秀提出的“认知协同进化”为我们理解这一转变提供了深刻框架:AI辅助学术创作带来的协同进化,并非简单的能力替代,而是人类认知系统与技术工具形成的共生型新认知生态。“无法回到无AI时代创作”并非能力退化,而是认知范式升级后的路径依赖。这种协同进化的本质不是依赖,工具始终是认知的延伸而非替代。就像画家使用数位板后,不会失去绘画的创造力,只是通过新工具实现了更复杂的表达。

初景利从科学研究范式演进的历史维度,指出了AI技术的革命性意义:科学研究的范式已经从实验科学、理论推演、计算机仿真、数据驱动的科学发现四个范式,开始走向人工智能的第五范式(AI for Science,AI4S),这是不可逆转的大趋势。他特别强调:2024年诺贝尔物理学奖(Physics for AI)、化学奖(AI for Chemistry)的获奖证明:只有科学与AI结合,才能带来从0到1的根本性突破。如果我们忽视AI在科学研究中不可替代的作用,那我们很可能会走更长的弯路,犯下致命性错误,带来不可挽回的重大损失。同时,他对技术过度发展的潜在风险也发出了警示:假如技术发展到登峰造极的水平,社会上所有的工作都将被取代,那么,人类将无所事事,甚至人类被机器人所打败,必将带来无可挽回的灾难性后果,这并不是人类创造AI的初衷。这一提醒对AI技术的健康发展具有重要指导意义。

3.2 学术出版与知识生产的新形态

AI技术正在深刻重塑学术出版与知识生产的形态和生态。张昕预测,“AI+学术出版”将朝着4个方向发展:

一是推出“二次创作”新产品。信息发展模式特殊之处就在于知识可以成为自身生产力的来源。大模型基于已有学术出版文献进行算法呈现,对原文献进行“二次创作”,本质上并没有产生实质性的新的科研创新活动,因此,要充分挖掘“二次创作”的价值,打造知识“二次创作”生产力。例如,加强多语种翻译,SciOpen平台能够通过AI工具,将中文期刊文献翻译为英文,实现了跨语言的二次传播;加强多媒体传播,智谱·AI开发了“秒读论文”功能,一键生成论文解读短视频;加强科学普及,利用AI技术将复杂的科学研究成果进行普及化转述,形成新的科普文章,向大众精准化传播。

二是打造知识效率工具。从知识考古学的视角,商业的信息管理本身就成了一门成功的商业。“AI+学术出版”的一个重要的场景就是如何成为一种成功的知识效率工具。例如,针对期刊编辑岗位需求最大的辅助编加校对应用,打造替代程度较高的编加辅助效率产品;探索智能体应用,为作者、读者等提供更多的智能化服务,提高服务效率,降低成本;在审稿环节,对审稿意见进行AI辅助判断,提高审稿意见分析效率,智能化筛查考核审稿人,等等。

三是探索“类搜索引擎”功能。从传统媒介和新媒介交替过渡的视角,“AI+学术出版”最突出的应用将是类似于搜索引擎的作用,称之为“类搜索引擎”。相比于传统的基于网络排名、关键词等规则的搜索引擎,“类搜索引擎”随着准确度的提升,将最终有可能实现更加智能化的搜索,并逐步取代部分传统搜索引擎的作用,成为AI最大的应用场景。

四是探索学术出版新型治理结构。例如,加大期刊的制度建设,中华医学会杂志社作为我国医学领域极具影响力的出版机构,发布了《关于在论文写作和评审过程中使用生成式人工智能技术的有关规定》,国内越来越多的期刊发布类似规定。此外,AI引发的学术不端和出版伦理问题,既来之于技术,则解决也归于技术,因此,应配套检测手段,提升技术水平。例如,应用同方知网推出AIGC检测服务系统,从语言模式和语义逻辑两条链路,快速、准确识别学术文本中的AI生成内容,应与学术期刊界共同推广,深入应用,完善使用规则。

刘丽也对AI辅助学术创作的未来发展趋势进行了描述:AI辅助学术创作的未来发展趋势,将体现在深度融入学术写作全流程、创新协作模式、完善学术规范等方面,这些趋势不仅将重塑学术创作的工作流程,还将为学术研究带来新的机遇。在AI与人类协作模式的创新方面,研究者与AI的协作模式将更加多样化。AI不仅是工具,更可能成为研究者的“协作伙伴”,在创新思维和学术表达上提供支持。例如,AI可以帮助研究者从“文献迷雾”中提炼出“创新路径”,为学术研究提供新的视角和思路。通过整合不同领域的知识和数据,AI能够帮助研究者发现新的研究方向和合作机会,从而促进学术创新。在辅助学术创作时,AI工具可能会更加个性化。例如,AI可以根据研究者的需求和偏好,提供定制化的写作建议和优化方案。这种个性化服务将使学术创作更加贴合研究者的实际需求,提升创作体验。

徐丽芳进一步从学术认证机制革新角度指出,构建适应人机协作的知识生产评价体系已成为推动学术新形态发展的关键,学术认证机制的革新迫在眉睫:需从当前的溯源审查甚至直接禁止,转向结果导向的评价逻辑,以假设是否可验证、解释是否符合逻辑作为核心标准,而非执着于划分人类与AI的贡献边界。这种转向无疑将触及对学术创新本质的认定。当前学术期刊刊发的多数论文,其创新属组合创新,即在既有理论框架下整合数据、优化方法、拓展应用场景乃至更新理论。而此类工作恰恰是AI的强项:通过深度学习海量文献,AI能快速识别知识空白,生成基于前人发现的解决方案。而人类的终极优势在于颠覆式创新,如提出全新研究范式(如爱因斯坦相对论);或者保持对科研伦理的批判性审视、对科研成果的意向性解释和应用。二者恰可形成互补:人类作为研究需求和研究问题的提出者,指引探索方向;AI助力加快穷尽组合创新的可能性。禁止AI参与创新,则无异于要求科学家重新手动计算行星轨道——这并非坚守学术纯粹性,而是阻碍工具进步带来效率飞跃的“绊脚石”。

3.3 治理与教育双轨并进:构建负责任的人机协作体系

李秀结合教材编写实践提出“人机协作”的核心原则应是“AI补位效率、人类掌控意义”,基于此提出了“人机协作”能力培养包含的五个关键维度:任务拆解与指令转化能力——将教材编写的抽象目标转化为AI可理解、可执行的阶梯式提示词任务;意义建构能力——从准确性、专业适配性以及价值三方面,对AI输出的内容做批判性校准,赋予知识独特价值;跨模态信息整合能力——基于双重编码理论,主导文字-图像-场景的有机融合,而非简单叠加;认知负荷调控能力——对AI生成的信息进行“筛选-分层-节奏”控制,避免读者认知超载;技术驯化能力——在素材阶段善用AI的效率价值,在核心环节(比如伦理盲区)守住人类的认知主导权。她精辟地总结道:人机协作不是让AI做人类不想做的事,而是通过AI让人类能做之前做不到的事。

她还补充了关于文献综述的重要观点:文献综述还是人类学术创作中必备的“肌肉记忆训练”。文献综述的核心是通过梳理发现问题,在信息过载的当今,AI负责效率环节,人类负责深度环节,通过AI解决信息过载和碎片化,保留人类对核心文献的深度处理。人类在逐篇阅读、对比、质疑的过程中,形成对研究逻辑的直觉,这种隐性认知是AI无法复制的。为了确保对研究细节的感知力不退化,文献综述这步“肌肉记忆训练”不可少。AI通过聚焦高价值信息让人类将“肌肉记忆训练”集中在最关键的文献和细节上,从而在信息过载时代提升隐性认知的形成效率。

李秀还特别探讨了AI通过无监督学习的“隐式知识探索”与人类的“隐性认知”二者关系这一深层问题:无监督学习是AI在无标签数据中自主挖掘规律的过程,其“隐式知识”指的是数据中未被人工标注但客观存在的统计模式或结构关系,是在知识的广度上拓展。人类的“隐性认知”是个体在长期实践(如阅读、思考、研究)中形成的难以显性化的直觉性理解,本质是对知识意义的深层把握,在知识的深度上拓展。前者是数据层面的“暗结构”,后者是认知层面的“暗逻辑”。二者协同本质上是学术认知方式的进化。她进一步分析了这种协同的价值和风险:人类的知识探索容易受思维定式限制,AI的无监督学习,理论上能对数据做到无偏见扫描,从而绕过人类的思维定式,直接呈现数据中的反直觉关联,这种关联可能成为创新的起点。比如材料科学中,AI发现某种“不合理”的元素配比反而有超导体特性,倒逼科学家重新思考物理机制。但AI发现的“隐式知识”本身是中性的,比如从社交网络数据中发现“某种社会群体的行为与犯罪率的隐性关联”,但这种关联针对是否反映歧视性数据偏差、是否应该用于司法判决等,还需要人类的价值判断。AI可能发现“某种基因编辑技术的隐性风险”,但判断“是否应该继续研究”需要人类权衡科学进步与伦理底线。"

4 结语

AI辅助学术创作正处于快速发展与深度变革的关键历史节点。综合多位权威专家的深度分析和前瞻思考,我们可以得出一个核心共识:AI是强大的工具,但不是学术创造的主体;人类研究者是意义的最终掌控者和学术责任的承担者。这一共识应当成为我们理解和规约AI与学术创作关系的基石。本专稿在策划过程中,我们有意使用AI工具参与策划,包括调研问题的拓展、材料的整合、终稿的校对,感受最深刻的是材料整合环节AI展示出的多源信息整合与逻辑重构力,在既定的结构框架内,AI不仅细化了维度,还打破了以往以专家为单位的叙述结构,实现了传统方法难以完成的大规模内容整合。然而,AI的参与并未使我们感到学术能力的流失,相反,正是由于AI强大的扫描和分析力,更需要深厚的专业素养和对稿件的深刻理解,去辨别AI整合中的部分逻辑错误。学术出版是以传播科学研究与学术成果为宗旨的出版活动,其中策划是提升学术影响力的重要手段,AI参与策划更需要编辑对整个专题方向明确且清晰的把握,才能保证每一步在计划内顺利完成且为后一流程打下扎实的基础。

面对AI技术浪潮的冲击,我们需要在工具理性与价值理性之间寻求平衡:既充分拥抱技术带来的效率提升,又坚守学术伦理与创新本质;既积极探索人机协作的新模式,又警惕技术滥用与学术异化风险。最终致力于构建一个“人主导、机补位、伦理先行、治理跟进”的健康学术新生态,确保AI技术真正成为扩展人类认知边界的利器。

生成式人工智能正在重塑学术生产链条。当GPT-5的论证能力逼近专业学者,当AI检测工具误判率高达38%,学术共同体陷入效率与诚信的两难困境:如何在享受技术红利的同时守护学术根基?人机协作的边界究竟何在?为此,本刊特邀以下七位权威专家(按姓氏字母排序)展开跨界对话:

初景利【-逻*辑*与-】#160;【-逻*辑*与-】#160;中国科学院大学经济与管理学院信息资源管理系主任,中国科学院文献情报中心教授

李秀【-逻*辑*与-】#160;【-逻*辑*与-】#160;清华大学计算机科学与技术系副教授

刘丽【-逻*辑*与-】#160;【-逻*辑*与-】#160;北京智谱华章科技股份有限公司学术创新中心主任

沈锡宾【-逻*辑*与-】#160;【-逻*辑*与-】#160;中华医学会杂志社新媒体部主任

王迁【-逻*辑*与-】#160;【-逻*辑*与-】#160;华东政法大学法律学院教授

徐丽芳【-逻*辑*与-】#160;【-逻*辑*与-】#160;武汉大学出版研究院副院长

张昕【-逻*辑*与-】#160;【-逻*辑*与-】#160;中国高校科技期刊研究会秘书长

① 每位专家完整观点在中国知网和本刊微信公众号上发布。

参考文献

/