科技与出版, 2023, 42(8): 89-96 doi: 10.16510/j.cnki.kjycb.20230809.003

学术探索

ChatGPT在学术出版应用场景中的伦理困境及其纾解之道*

——基于利益相关者理论的思考

袁源1), 谢文亮2)

1)《高等职业教育探索》编辑部,511483,广州

2)广东财经大学期刊中心,510320,广州

摘要

基于利益相关者理论,ChatGPT应用于学术出版场景可以构成三组八种代表各自诉求的利益相关者群体。利益相关者之间的互相博弈,催生了学术生态问题日益凸显,观点倍速增长存疑、利益相关者权责难以区分的伦理困境。为破解当前面临的困局,需将各方利益相关者置于伦理框架中,运用多方协同治理的思路,使确定型利益相关者、预期型利益相关者和潜在型利益相关者各司其职,共治共管,方能实现ChatGPT在学术出版领域的人机协同和智能创新。

关键词: ChatGPT ; 学术出版 ; 伦理困境 ; 利益相关者 ; 协同治理

PDF (1490KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

袁源, 谢文亮. ChatGPT在学术出版应用场景中的伦理困境及其纾解之道*. 科技与出版[J], 2023, 42(8): 89-96 doi:10.16510/j.cnki.kjycb.20230809.003

ChatGPT作为新一代AIGC(AI Generated Content,人工智能生成内容)技术的重要分支,是由OpenAI公司推出的一种基于Transformer的语言模型,其最大的突破体现在语言文字方面的模拟能力,不但能人机对话,还能应用于写作、编写代码、生成诗歌和小说等。在此之前,AI大语言模型已经使用深度学习技术,以LSTM和Transformer为基础进行语义理解,可以更好地理解句子的语义和上下文,并能够生成较为自然、流畅的回答。通过ChatGPT这一工具的辅助,研究者对于资料的收集、整理以及语料处理的效率将会迅速提升,能够节省大量时间和人力。同时,通过审视ChatGPT对于语言的高效处理方式,学术界和教育界也会对于学术写作中的语言堆砌有所反思,倒逼学术生产者产出更有核心价值的成果。

总体来说,学术出版界已经对AIGC产业应用于学术生产领域有一定的接纳,例如虚拟数字人和有声书对于学术出版物的辅助应用日益广泛,但是对于ChatGPT直接参与从学术生产到学术出版的过程,大部分学术出版机构的态度是比较审慎的。例如,arXiv预印本平台对于“ChatGPT可以被指定为研究论文的作者吗?”这一问题已明确回应:生成式AI语言工具不应列为作者,因为计算机程序不能对论文的内容负责。[1]一些著名国际期刊,如《科学》《自然》《肿瘤学》等均已发表声明,不接受论文将ChatGPT列为“合著者”;国内学术期刊如《暨南学报(哲学社会科学版)》已发布有关人工智能写作的说明,暂不接受人工智能独自署名的研究成果。当然,当ChatGPT应用于学术出版的全流程中,利益相关者绝不止出版机构,不同的角色表达出不尽相同的利益诉求。

1 ChatGPT在学术出版场景中的利益相关者及其诉求

1.1 利益相关者理论

利益相关者理论最早发端于经济学研究领域。利益相关者理论提出的主要观点是,企业应该以所有利益相关者的利益为出发点,而不是仅仅以股东的利益为首要目标。1984年,弗里曼(Freeman)将利益相关者研究的应用范围扩充到企业以外,即所谓利益相关者,是“能够影响组织目标或被组织目标影响的一切个体和群体”。[2]1997年,米切尔(Mitchell)和伍德(Wood)研究成果认为,应将利益相关者的界定与分类结合起来,进一步提出利益相关者须具备合法性(legitimacy)、权力性(power)、紧急性(urgency)三个属性中的至少一种。如同时拥有三种属性,即为确定型利益相关者;拥有其中两种属性,则为预期型利益相关者;拥有其中一种属性,属于潜在型利益相关者。[3]利益相关者理论应用于分析ChatGPT在学术出版中出现的问题,可以揭示出应用场景中各种利益相关者的角色与诉求、利益关系和竞争关系,能够帮助我们深入了解ChatGPT在学术出版场景中生成的内在逻辑和伦理冲突,从而更好地提出可行性解决方案。据此,我们可以对ChatGPT技术应用在学术出版领域中产生的影响进行延展,得出三组不同影响力程度的利益相关者群体,并对他们的诉求进行解读。

1.2 ChatGPT应用于学术出版的利益相关者分类

1.2.1 确定型利益相关者

作者、出版机构和读者(还包括相关领域研究者以及更广泛意义上的公众)构成了确定型利益相关者群体。无论ChatGPT是作为独撰者还是共同参与者,抑或在学术成果中提供技术支持,作者作为学术生产的主体,必然与学术出版的全过程密切相关;出版机构,尤其是其中负责学术成果出版的编辑充当“把关人”的角色,在ChatGPT进入学术生产的过程被告知后,编辑需要对ChatGPT等内容生成工具参与的部分进行回应,综合考量学术成果的价值;由于学术出版必须惠及读者,读者以及相关领域研究者和公众需要确认学术出版内容的可信度和准确性,也随时可能将某一学术成果参考和应用到新的研究中去,因此其合法性、权力性及紧急性有迹可循。

1.2.2 预期型利益相关者

政府监管部门、同行评审专家(审稿人)、算法设计者及其所属企业构成了预期型利益相关者群体。政府监管部门虽然没有直接参与学术出版,但是行使监督职能不容置疑,其政策导向能够直接且立即影响出版机构管理者的决策。同行评审专家对于学术出版拥有合法性和权力性两项属性,无论是否存在人工智能生成的内容,同行评审专家都需要和编辑一起对学术成果的合法性进行判断,其判断结果将直接影响学术成果的出版与否,因此权力性比重很高,但是相对紧急性或紧迫性不强;至于算法设计者及其所属企业则是ChatGPT应用于学术出版出现的新的利益相关者角色,因为他们赋予ChatGPT的运算规则和语法规则一定程度上决定了学术产品体现的效能,他们与学术出版的合法性、紧急性密切相关,但是最后审查的工作并不由他们承担,因此不具备权力性属性。

1.2.3 潜在型利益相关者

数据库(图书馆)以及项目资助机构共同构成潜在型利益相关者群体。数据库和图书馆需要收藏有价值的学术出版物,作为提供学术资源、访问权、数据整理、索引以及评估指标的平台,它们与学术出版机构、作者、读者等其他利益相关者具有合法性的承接关系;而项目资助机构希望其所资助的研究者发表高水平的学术成果,学术机构和基金会也通常是学术出版物的资助者。以上两种角色都拥有道义上的合法性,但是由于他们没有直接参与学术生产,也不能直接监管学术出版流程,因此不具备超强的影响力和紧迫性。

1.3 三类利益相关者的诉求

以上列举了三组不同类别人员构成的八种不同利益相关者,由于分工不同、所属行业不同,利益主体的影响力也不同,因此不同的利益相关者会产生方向不尽一致的主要诉求,具体见表1

表1   ChatGPT应用于学术出版领域的利益相关者诉求分类

类别利益相关者诉求
确定型利益相关者作者成果迅速公开发表
出版机构综合考查学术成果的原创性、合法性、创新型,确保高水平学术成果在合法合规的情况下顺利出版
读者(研究者、公众)及时接收自己感兴趣的最新研究成果和信息,并尽可能对学术出版物发布的新知识加以学习和利用
预期型利益相关者政府管理部门强调学术出版机构应合规运营,严格遵守法律法规,致力于加强数字化版权保护和出版伦理道德建设
同行评审专家通过审读确保学术论文或专著的真实性、可靠性和可重复性,从而增强学术研究成果的可信度和学术价值
算法设计者及其所属企业为科研人员提供更先进、更高效的技术支持,加强学术数据的共享和交流,探索学术出版的商业化模式
潜在型利益相关者数据库(图书馆)尽可能收集到最新、最优的学术成果,但前提是这些成果不存在法律和伦理争议,方可对用户安全开放数据
项目资助机构促进更有价值、有应用前景的学术成果出版,促进研究成果的落地与应用,调动研究者的积极性和创造力

新窗口打开| 下载CSV


2 ChatGPT应用场景下利益相关者诉求博弈催生的伦理问题

不同于传统的学术出版,在ChatGPT应用场景下,更多角色例如算法设计者及其所属企业作为利益相关者对出版流程产生影响。不同类型的利益相关者诉求可能有交集,也有冲突,同一类型的利益相关者群体中不同的角色也可能会有合作、对立和牵制关系。因为不同的站位、不同的利益诉求就会导致各利益相关者角色在不断的博弈中产生冲突,由此也催生了一系列的学术伦理问题。

2.1 学术生态问题日益凸显

众所周知,ChatGPT克服了前一代人工智能的缺陷,进行了技术优化,并不是简单地从某个模板中选择内容,而是根据实时计算的结果提供答案。其给出的信息越精准,答案也越有针对性。面对繁重的学术写作任务,作者为了提升写作效率,使用ChatGPT等工具确实可以协助生成数据乃至生成内容,而这些内容已经不是传统意义上的复制粘贴和直接抄袭,完全可能逃避现有学术不端查重软件的“法眼”。至于GPT类工具自身可以实现的查重功能,仅限于使用合适的相似度度量,并与阈值进行比较的方法,旨在判定是否抄袭已有文献,然而在判定文本为机器生成还是人类生成方面尚不成熟。在最近的一项研究中,由ChatGPT创建的摘要被提交给学术审稿人,他们只发现了63%的假文章。[4]这说明,从学术写作到学术出版,不诚实运用ChatGPT工具的作者和出版机构、评审专家以及政府管理部门在利益诉求上是有所冲突的。作者希望无论采用什么手段,提交的成果能越过审查和质疑顺利发表,而后三种角色则因为不断迭代升级的“机器洗稿”能力而被挑战,决意出台更有力的举措防治借助ChatGPT工具衍生的学术不端行为。除了学术诚信问题,ChatGPT应用于学术创作和学术出版而引发的另外一个重要学术生态问题是数据的真实性存疑。ChatGPT依赖海量数据进行编码、比较和汇总,生成不同语言风格需求的新文本。一般来讲,学术性语言风格比较容易模仿。但是如果数据来源原本就失实,存在虚假信息、事实性错误和知识盲区,ChatGPT这位“优秀搬运工”不但不会对错误数据进行审查,也不会与事实进行比照,无疑还会基于错误产出新错误。对于作者来说,如果其学术水平原本达不到识别这些错误的能力,编辑、审稿人等也疏于把关的话,错误的数据和错误的观点就会走进学术出版物,被读者所吸收,被更多的研究者所引用,那么将会极大地污染学术生态。

2.2 存疑观点倍速增长

当前,以ChatGPT为代表的人工智能语言生成模型输出的文本中,由于缺乏足够的读者反馈和监控尚存在误区,一些表达比较晦涩的、隐晦的言论可能一直潜伏在学术出版物中。ChatGPT“算法+模板”的写作方式脱离人类文化理解,且脱离所在国家与政府意识形态把控,可能会被部分组织或个人滥用,以产生和传播具有明显偏见或攻击性的信息,这是政府主管部门需要特别监控的,也是学术“把关人”编辑和同行评审专家特别要引起注意的。

此外,ChatGPT算法设计者及其开发企业OpenAI的价值取向原本应当是中立的,他们的诉求就是帮助使用者更好地模拟人类语言习惯和语序规则生成文本。但是语言处理算法的行为是算法工程师基于其训练数据设计的,算法设计的过程中体现着设计者对算法所要完成的任务的理解、对数据以及变量的选择、对算法效果的评价等要素[5],算法自身内含的价值观极易被代码所掩盖。同时,算法偏见和歧视还源于读者对个性化和定制化内容的渴求,一些特定指向的数据会被过度放大,相应地另一些数据则会被忽略,读者被自身“喜欢的”话题包围,被束缚在“信息茧房”中而不自知。长此以往,一些小众的研究话题越来越难进入公众视野,甚至可能导致被学术界所忽略,那么出版机构、同行评审专家、项目资助机构等也会被减少与其他话题接触的机会。如果出版机构频繁依赖人工智能打造畅销出版物,就会导致选题功利化、审稿模式化和推送单一化,以至于学术出版出现同质化的现象。[6]那么,对于读者、数据库(图书馆)和项目资助机构来说,这种“过滤气泡”和“信息茧房”带来的危害可能是长期和深远的。作为利益相关者,它们一样有保护自身权益的必要。鉴于ChatGPT预训练、多领域适应和多语言支持的特点,较之其他AI工具,其语言生成更高效、更具有连贯性和多样化,因此传播速度更快,但是其快捷生成的可疑和偏见性内容带来的负面效应也相应成倍速增长。

2.3 利益相关者权责难以区分

“大数据时代使隐私被侵犯的概率以及善后的难度成倍增加。”[7]ChatGPT大量应用于学术出版之后,有可能会出现大量的版权纠纷。首先,ChatGPT技术使用了其他作者的文章作为模仿对象,生成的文本又与这些文章高度相似,可能会导致侵犯版权的问题。即使技术应用者的本意并非抄袭,但从法律层面看,使用他人作品的结构、表述和观点等,也可能构成侵权行为。例如我国现行著作权法没有明确将数据爬取、数据挖掘等智能化分析行为规定为合理使用,ChatGPT应用于学术写作就极有可能对其他著作权人和使用用户构成侵权。同时,ChatGPT在采集样本数据的过程中,不可避免地收集、整理并利用用户的个人数据,因此存在用户隐私数据侵权和外泄的隐患。[8]在作者使用ChatGPT的过程中,除非数据资源的使用已征得全部权利人同意,否则会产生作者与社会公众及其他相关文献发表者之间的博弈。这也就牵涉到更广泛意义上的一系列问题:如果ChatGPT单独或参与学术写作,谁是真正的作者?到底有没有能为之负责的作者?如果出现纠纷,谁是法律关系主体?如果产生商业利益,谁又应当分得红利?一旦构成侵权,谁将受到处罚?

此外,由于ChatGPT的生成内容是基于预训练的模型,它并不了解版权、隐私、伦理等方面的限制。因此出版机构如果没有对内容进行严格审核和编辑,同行评审人没有更多技术知识和判断力来评估生成内容的质量和原创性,就无法确保其质量和合规性。而在读者没有足够的批判性思维和验证来源的能力,数据库(图书馆)亦无法验证海量信息的情况下,会导致ChatGPT生成的有争议或者错误的内容二次传播,进而衍生出更多的权责问题。

3 多方协同的学术出版数字化治理路径

多方协同治理理论作为一种开放、灵活和实践性强的治理模式,认为社会问题往往涉及多个方面和多种利益相关者,单一的治理主体无法独立解决问题,需要通过协同合作来提升治理的效果。而ChatGPT在学术出版场景中的应用恰好涉及多种利益相关者,有必要多方协同,探索和改进数字化治理的方式。

同时,我们应当意识到ChatGPT较之以往所有AIGC人工智能生成内容技术在语言组织的逻辑性、系统性、交互性方面都有显著的进展,尤其是它的情感分析、高度拟人能力有所提升,给人类识别和审查AI写作带来了更大的困难。既然ChatGPT以及今后可能出现的其他人工智能写作工具都不可能完全被禁止,因此友好地对待人工智能,实现人机和谐,是学术出版体现“技术向善”理念融入数字化治理的应然之路。不同类型的利益相关者,应当被置于正确的伦理框架中,以人为中心规范技术应用边界,发挥多方合力,实现长效的人机协作机制[9],这要求我们从以下几个方面分别开展数字化治理工作。

3.1 确定型利益相关者:制定和践行学术出版数字化伦理规制

作者应是首先将ChatGPT等系列人工智能内容生成工具应用于写作的利益相关者,他们可应用的不仅仅是文字生成功能,还包括多模态内容,如图表、视频到底应当怎么用?哪些部分能够正规地应用于学术出版?这一群体不但需要一套使用指引,也需要为自身利益发声。而对于以编辑为代表的出版机构利益相关者来说,一方面需要拥抱人工智能新科技,另一方面必须为防范研究诚信、著作权、学术荣誉方面的纠纷而进行审查,确保学术质量。因此,在制定相关规制时,工作重点在于厘清权、责、利;在践行相关规制时,不但需要他律,还需要依靠参与者的学术自律。而读者和相关领域研究者则有权力实时对ChatGPT参与的学术成果进行可信度和准确性方面的质疑。

一方面,各国亟须制定更为细致的国家层面关于人工智能(尤其是针对ChatGPT这一工具)应用领域的法律法规,其中应当有关于学术出版的明确指引。如前所述,有的学术期刊暂不接受将大语言模型列为作者的成果,有的则不接受大语言模型独撰的成果;有的学术期刊不接受任何人工智能和机器学习产生的图表、数据,有的期刊则允许使用,只需在方法、致谢等部分说明即可。由此看来,相关伦理规制很可能是作者与出版机构互相博弈后的结果,但是这种博弈并非零和博弈,而是要在螺旋式发展中进步的。虽然存在冲突,制定规制应同时把握原则性和灵活性,重在体现权责利。既然运用技术,就要体现技术责任主体:学术出版的技术核心责任主体应包括作者、算法设计者及其所属企业、出版机构;一旦被使用,外围技术责任主体还包括数据库(图书馆)和读者(和更广泛意义上的社会公众)。进一步细化的法律法规应明确规定数据来源范围,注明算法设计人员的身份姓名;[10]须明确保护数据使用范围,确保相关人员的著作权和知识产权不被侵犯;须明确一旦出现法律纠纷应负责任的是包括数据设计方在内的人而非机器;同时还须明确不同责任主体应承担哪些相应的责任。[11]

另一方面,在法律法规更加完善之后,就是践行相关的规制。除了其他利益相关者的监管和约束外,作者和出版机构还应当时刻保持学术自律。作者应充分了解出版机构出台的有关ChatGPT等智能工具应用于学术写作的规定,不逾越红线,主动和如实告知工具使用范围和使用情况,尊重著作权,不进行剽窃、抄袭、篡改等违法行为,注重成果的准确性和可信度,推进透明度和著作权保护,在此基础上实现人机协作。而出版机构编辑与其被动和滞后地进行防范,不如主动出击,理解算法,驾驭算法。例如,当前并没有成熟的AI语言识别工具,编辑可以学习和部分借助GPTZero等有待完善的工具,也可以结合工作经验与软件公司联合开发更有效的AI写作识别工具。同时,新闻界诟病机器参与新闻写作缺乏“情感体验”[12],相应地体现在学术写作上就是缺乏内驱的创新思维。对此,编辑必须保持清醒的头脑,避免基于大数据选稿的程式化工具依赖而陷入“信息茧房”,要清晰地认识到出版物应当引领作者而非一味迎合作者的原则,遵守法律规定和出版伦理,优先考虑学术质量,倡导学术百花齐放、百家争鸣。对于读者和相关领域研究者来说,他们需要了解ChatGPT技术的原理、应用范围和潜在风险,保持批判性思维,不轻易接受并传播未经证实或有争议的信息,支持学术出版机构制定使用ChatGPT的透明度和伦理准则,可以对其生成的学术出版内容进行质疑。

3.2 预期型利益相关者:监管与反馈学术出版数字化伦理规制

预期型利益相关者包括政府监管部门、同行评审专家、算法设计者及其所属企业。政府监管部门作为最直接的管理机构,负责相关政策和法规的出台、解释和监管工作,执行过程中需要综合考虑其他利益相关者的意见,并及时接受各方反馈。对于同行评审专家来说,其工作主要在于配合出版机构的编辑,发挥学术共同体中坚力量的作用。在ChatGPT应用场景下,同行评审专家需要在伦理框架内一方面推进探讨机器学习、数据科学、人工智能等前沿技术在学术领域的应用,另一方面则需要贴近出版机构的学术风格,协助编辑做好审查把关工作,识别较为隐蔽的学术不端隐患,对作者的学术成果提出改进意见,及时将意见反馈给出版机构编辑,促进学术交流和学术出版。而作为数字化时代的全新来客,算法设计者及其所属企业第一次作为利益相关者出现在出版流程中。对于这类新角色,有学者提出,智能程序的编写者应受到约束,确保其程序算法和编写逻辑不能逾越道德伦理的底线。[13]那么,我们完全可以把约束环节前置,在规律法规订立的阶段就明确技术安全和数据使用标准,对机器生成的数据源和算法模型进行公开审查和评估,从而可对机器生成内容的过程进行责任追溯,对出现质量问题的机器和算法采取相应的纠正措施,由此使算法设计者在明确的法律法规指引下更多地配合和保障学术出版的数字化进程。同时,对于同行评审专家来说,其利益相关者的权力性较为明显但紧急性不足;对于算法设计者及其所属企业来说,其在技术端的变化很可能引致作者和出版机构的紧急性响应,但是其相应的权力性没有同行评审专家那么权威。以上三种预期型利益相关者因与作者、出版机构和读者较为紧密的联系,可以较为及时地对学术出版数字化治理过程中出现的问题进行反馈,一旦形成良好的机制,将会有效促进出版数字化伦理规制乃至相应法律法规的完善与修订。

3.3 潜在型利益相关者:监督及配合学术出版数字化伦理规制

数据库(图书馆)及项目资助机构作为可以影响学术出版的潜在型利益相关者,它们对于ChatGPT应用场景下学术出版数字化伦理规制的影响力相对是较为间接的。但是例如相关研究者的数据或是社会公众的个人资料未经许可被ChatGPT采集并生成语言发表,数据库或图书馆收藏了ChatGPT撰写的论文或书籍出现知识产权纠纷,或是项目资助机构发现其资助的研究者或出版物可能隐瞒机器生成内容过程而造成学术不端等情况出现,以上潜在型利益相关者很可能会以学术共同体外围圈层成员的身份出现,介入学术出版数字化伦理问题的治理进程中。数据库有权选择那些他们认为原创度更高且更有学术价值的成果,并对可能拒绝收录涉及侵权以及发表大量缺乏元认知、通过机器学习摄取短期内热门话题进行语言模拟的出版物及单篇论文。而资助机构一旦发现被资助者通过不正当数字化手段违规发表学术成果,则可以撤销资助作为警示。可以预见的是,它们参与的治理方式很可能不是单独进行,最佳选择是联合多方共管共治,共同监督。在现行法律法规的基础上,多方监督者应聚焦涉及ChatGPT创作学术成果的署名规则、著作权归属制度、合理使用制度、侵权认定制度、侵权责任制度[6]等一系列规制的问题。监督的方向在于避免机器生成的论文和研究植根于某些特定的利益或立场,或是将研究者留滞于“信息茧房”,同时也须避免机器生成的学术文章背离学术原则成为纯商业化营销和推广的工具。配合协调的方向在于加强对ChatGPT写作技术的理性认知并深入探讨,以推动其应用的合规、可持续发展,进而给予学术创新必要的技术支持。在各方利益相关者密切合作,采取协同监督和更加透明的治理机制的基础上,才能真正实现ChatGPT技术更安全和更有效的应用。

4 结语

以ChatGPT为代表的人工智能自然语言处理工具已经将人类带入了智能创作时代,而学术出版行业的形态也将会被重塑。在与学术出版相关的三组八种不同的利益相关者相互博弈的作用下,由此产生的学术伦理问题也日益突出。应当明确的是,所有利益相关者作用的发挥都需要被置于伦理的框架中,须加强其正面意义,限制其负面影响。[14]一方面,有关数据收集、算法应用、经验分析相关的法律规制须进一步细化,给予作者和出版机构更明确的指引;另一方面,还需要学术生产者严格自律,其他利益相关者共同参与到数字化治理的监督共管环节,建立透明的算法流程、信息安全保障机制以及可靠的训练验证和人工审查体系,推动基于人机协同的智能学术创作良性发展,最终实现工具理性和价值理性的有机统一。

基金项目:广东省教育厅高校省级重点平台和重大科研项目—青年创新人才类项目(2018GWQNCX087);广东省科技计划项目高水平科技期刊建设专项(2021B1212020 003);广州番禺职业技术学院科研项目(2022SK05)。

参考文献

arXiv policy for authors’use of generative AI language tools

[EB/OL]. [2023-01-23]. .

URL     [本文引用: 1]

FREEMAN R E. Strategic management:a stakeholder approach[M]. LondonPitman Publishing Inc1984.

[本文引用: 1]

MITCHELL R K, BRADLEY R A, DONNA J.

Toward a theory of stakeholder identification and salience:defining the principle of who and what really counts

[J]. Academy of Management Review,1997224):853-886.

[本文引用: 1]

ChatGPT is fun,but not an author

[EB/OL]. [2023-01-26]. .

URL     [本文引用: 1]

党子奇.

技术伦理视角下智能新闻伦理哲学溯源与风险控制

[J]. 中国出版,202118):39-42.

[本文引用: 1]

张炯.

人工智能时代的出版伦理博弈及编辑伦理价值观

[J]. 中国编辑,20192):24-28.

[本文引用: 2]

许向东.

关于人工智能时代新闻伦理与法规的思考

[J]. 人民论坛·学术前沿,201824):60-66.

[本文引用: 1]

方卿丁靖佳.

人工智能生成内容(AIGC)的三个出版学议题

[J]. 出版科学,2023312):5-10.

[本文引用: 1]

韩晓宁耿晓梦周恩泽.

人机共生与价值共创:智媒时代新闻从业者与人工智能的关系重塑

[J]. 中国编辑,20233):9-14.

[本文引用: 1]

李扬.

智能新闻视域下的信息传播伦理问题

[J]. 人民论坛·学术前沿,202019):98-101.

[本文引用: 1]

卜洪漩.

智能时代新闻传播的伦理思考、价值遵循与制度保障

[J]. 皖西学院学报,2022381):103-107.

[本文引用: 1]

郭琪.

“AI+记者”:智媒时代人机协同写作模式的局限性与可能性

[J]. 出版广角,201924):67-69.

[本文引用: 1]

张波.

人工智能新闻出版的监管难点与优化路向

[J]. 编辑之友,20203):35-40.

[本文引用: 1]

马立明.

我们应当建立什么样的算法伦理

[N]. 中国社会科学报,2021-11-30(8).

[本文引用: 1]

/