快捷导航

学术期刊出版中ChatGPT署名的风险与应对

2024-5-6 15:46| 发布者: admin| 查看: 109| 评论: 0
摘要: 作者:蒋云柯 来源:《全媒体探索》2024年3月号作为最先进的大型语言模型(英文简称为“LLM”),ChatGPT拥有较高的智能水平,并且具备实现复杂交互式对话、生成高度连贯性文本的能力,因此迅速被应用于学术出版领域 ...

作者:蒋云柯

来源:《全媒体探索》2024年3月号

学术期刊出版中ChatGPT署名的风险与应对


作为最先进的大型语言模型(英文简称为“LLM”),ChatGPT拥有较高的智能水平,并且具备实现复杂交互式对话、生成高度连贯性文本的能力,因此迅速被应用于学术出版领域。随着其加速更新迭代,ChatGPT的自然语言理解能力、识图绘画和文本生成能力也在不断提升。

学术期刊出版中ChatGPT署名的风险与应对


这项强大技术带给出版行业的首要问题,便是是否应当允许在学术出版物上为其署名。部分学术期刊、科研出版机构以及高校以ChatGPT与出版行业规定的作者标准不符为由,明确表示禁止在学术出版物上为ChatGPT署名。

学术期刊出版中ChatGPT署名可能出现的问题

学术出版中的署名同时具有法律与伦理双重面向。关于是否应为ChatGPT署名,出版行业内部也未形成绝对的共识,加上大部分高校与编辑出版者的态度暧昧不清,学术期刊出版中的ChatGPT署名问题极易引发法律及伦理风险。

学术期刊出版中ChatGPT署名的风险与应对


(一)ChatGPT署名可能导致法律风险

署名的法律面向,是指署名主体具备署名资格,经由署名行为昭示主体之于作品的人身权利与财产权利,并承担对作品的法律责任。但在学术出版物上为ChatGPT署名,则有可能导致出版法律风险。

1.为ChatGPT署名会贬损出版语境下署名的法律意义。

因为作为自然人的作者,署名行为代表作者对署名权的行使,此权利之行使又以作者具备法律主体资格为要件。学界大部分学者认为人工智能尚不具备法律主体资格,不应当享有法律主体地位。事实上,无论是否能依照法律对“人格”的定义承认人工智能的主体性,将署名权赋予人工智能都将导致虚无的法律后果,因为人工智能无法不依靠人而自行行使署名权。

2.为ChatGPT署名,难以适用出版行业的署名制度。

《著作权法》中规定,署名权强调的是作者享有是否署名以及以何种方式署名的自由,而基于学术诚信的需要,对ChatGPT署名显然不能享有这种自由。至于《著作权法》中规定的署名推定规则,其本意在于实现作者身份推定与权利存在推定的效果,但在ChatGPT署名上却毫无用武之地。

3.对ChatGPT署名还有可能导致侵权风险。

ChatGPT所生成的内容用到的数据本身就可能涉嫌不当获取、抄袭、演绎等情况。如果在这些生成内容上为ChatGPT署名,就会分别构成著作权侵权与不正当竞争。假若真是如此,那么编辑出版者也将难辞其咎而被迫陷于法律责任的追讨之中。

(二)ChatGPT署名可能导致出版伦理风险

署名的伦理面向,是指署名行为应当符合出版伦理要求。在学术期刊出版中,这代表编辑、作者与评审专家对科研诚信的尊重。

学术研究中的人工智能署名与其他场合的人工智能署名存在明显差别,因此在学术期刊出版中强调署名伦理十分有必要。而在其他类别中,如自动撰写新闻的人工智能,对读者来说署名信息无关紧要,那么这种人工智能的署名就很难涉及出版伦理问题。

学术期刊出版中的署名十分不同,尽管学术出版的目的也具有营利性,但主要目的仍然是学术思想的传播。因此,作为思想来源的指向与声誉累积的载体,学术期刊出版上的署名具有更为重要的社会评议价值。

与之相应,学术不端行为直接与署名挂钩,该署名除具有约束作者、保证学术诚信与学术质量的意义外,对读者来说也有过滤信息、辅助判断的作用。

(三)拒绝ChatGPT署名不利于出版行业发展

虽然为ChatGPT署名可能导致法律或伦理风险,但若禁止则可能无益于风险的化解,还可能产生新问题。

1.简单拒绝署名不利于维护出版伦理。

有实验研究表明,研究学者实质上并不能完全区分ChatGPT生成的学术内容与自然人撰写的内容,即便使用AI输出检测器,也仅能识别出66%的人工智能生成内容。因此,目前并没有能识别ChatGPT生成的可靠办法,自然人完全有可能把ChatGPT生成内容说成是自己原创。

2.拒绝为ChatGPT署名,也不是对待新兴学术工具应当有的态度。

以ChatGPT为代表的LLM学术工具本身并无价值判断,其在发挥作用的过程中仅是遵循了自身的机制和原理,满足技术中立属性。另外,ChatGPT也是促进学术研究发展的一项补充。

与自然人作者会受到个人价值倾向、社会文化影响不同,ChatGPT的中立属性有益于减少偏见,提高科学研究的客观性。实际上,我国对ChatGPT类人工智能技术的未来应用场景与社会贡献持较为肯定的态度。

学术期刊出版中ChatGPT署名的应对之策

不论是在学术出版物上为ChatGPT署名,还是否定ChatGPT的任何署名可能,都可能导向出版的法律和伦理风险。因此,或许可以考虑从署名制度自身出发,探寻编辑出版者应对ChatGPT署名问题较为妥善的行业对策,以达到在肯定ChatGPT对学术写作实质性贡献的同时,尽可能地规避法律与伦理风险。

(一)ChatGPT理应获得广义署名资格

细究署名行为的根本,应重新定位学术期刊出版中的ChatGPT署名问题。在作品上署名实际上起到作品的创作者彰显身份的目的,后来该行为权利化后,成为由作者专享的署名权,但背后体现的仍然是作品与创作者之间的精神联系。究其根本,围绕署名构建的相关权利义务关系仅为署名的“第二性”,而昭示作品与实际创作者的事实关联的才是署名的“第一性”,也就是署名的本质。

这既是长期以来形成的制度传统,也是署名制度的法理基础,更是解决部分作品署名制度争议的关键所在。换句话说,署名行为是作者享有署名权的行为表征,如果去掉法律外衣,署名作为标注的一种,本质上属于事实行为。

ChatGPT能否成为著作权法上的作者,与ChatGPT能否被列入科研作品或成果的署名栏不可一概而论。如果承认ChatGPT与其生成内容的事实联结,认可其对于科研作品或成果作出的实质性贡献,就应当使其获得广义上的署名资格。

(二)构建广义署名附随及责任配置化解风险

构建广义署名附随是学术出版中对ChatGPT署名风险化解的关键。有学者指出,对人工智能创作的文本应当加注“本作品由人工智能生成”的标识。鉴于科研工作的独特性,应对ChatGPT的署名附随提出更严格的要求。广义署名附随不仅要求对ChatGPT进行署名,还应当阐明ChatGPT的使用情况。实际上,部分杂志也要求作者披露人工智能的具体使用方式。

披露文本贡献时,应当提供LLM工具的具体访问信息、模型、用于训练模型的数据和使用方法,有些还需要提供生成文本的文件,披露非文本贡献时则要求作者提供数据、编程代码等。在构建署名附随规则时,也需要在学者与编辑两大群体充分讨论的基础上先由影响力较大的学术期刊试行,尝试制定关于ChatGPT标注、说明与引用的统一规约,再逐渐调整和推广。

广义署名及其附随义务的落实也离不开制定义务违反所产生的责任。

一方面,相关作者应对使用ChatGPT但不标注或不规范标注行为承担著作权法上的消极评价。另一方面,出于对“文责自负”出版惯例的延续,作者应对使用ChatGPT引发的一切法律风险与科研伦理风险承担责任。

此外,编辑也是广义署名及其附随义务的履行主体,可要求学术期刊编辑对应发现却未发现的相关作者违反广义署名义务行为承担间接责任。

结 语

在对LLM生成内容的识别缺乏行之有效的判断方法时,对学术期刊出版中ChatGPT的署名问题采取谨慎态度无可厚非,但并非长久之计。积极面对新兴技术带来的科研优势,同时坚守法律与伦理的底线,无疑是更优的选择。

实际上,OpenAI公司已经考虑以添加水印方式标注ChatGPT的生成内容。总而言之,解决学术期刊出版中的ChatGPT署名问题,既需要制度层面的多方考量,也需要学者群体、编辑的共同努力。

(作者为《江苏理工学院学报》编辑部编辑)

本文刊于《全媒体探索》2024年3月号,原标题为《学术期刊出版中ChatGPT署名的风险与应对》。

鲜花

握手

雷人

路过

鸡蛋

关注我们:东远物联

抖音

微信咨询

咨询电话:

199-2833-9866

D-Think | 广州东远智能科技有限公司

地址:广州市白云区北太路1633号广州民营科技园科创中心2栋16楼

电话:+86 020-87227952 Email:iot@D-Think.cn

Copyright  ©2020  东远科技  粤ICP备10033639号

免责申明:部分图文表述来自于网络,如有侵权请联系作者删除!