全球最大的学术出版商施普林格·自然(SpringerNature)已经阐明了其在科学论文中使用人工智能写作工具的政策。该公司本周宣布,像ChatGPT这样的软件不能被认为是其数千种期刊上发表的论文的作者。然而,施普林格表示,科学家使用人工智能来帮助撰写或产生研究想法没有问题,只要作者适当地披露了这一贡献。
“我们觉得有必要澄清我们的立场:为了我们的作者,为了我们的编辑,为了我们自己,”施普林格·自然旗舰出版物《自然》的主编MagdalenaSkipper告诉TheVerge。新一代的LLM工具(包括ChatGPT)确实在社区中爆炸式增长,社区理所当然地兴奋并玩弄它们,但[也]以超出目前真正使用它们的方式使用它们。
ChatGPT和早期的大型语言模型(LLM)已经在少数已发表的论文,预印本和科学文章中被命名为作者。然而,这些工具的贡献的性质和程度因情况而异。
在《肿瘤科学》杂志上发表的一篇评论文章中,ChatGPT被用来在帕斯卡的赌注背景下主张服用某种药物,人工智能生成的文本被清楚地标记出来。但在一篇检查机器人通过美国医疗执照考试(USMLE)的能力的预印本论文中,对机器人贡献的唯一承认是一句话,说明该程序“有助于撰写本手稿的几个部分”。
在后一篇预印本论文中,没有关于如何或在哪里使用ChatGPT生成文本的进一步细节。(TheVerge联系了作者,但没有及时收到回复。然而,资助这项研究的公司的首席执行官,医疗保健初创公司AnsibleHealth认为该机器人做出了重大贡献。“我们之所以将[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力贡献,而不仅仅是作为其评估的主题,”AnsibleHealth首席执行官JackPo告诉Futurism。
科学界对将ChatGPT视为作者的论文的反应主要是负面的,社交媒体用户称USMLE案件的决定“荒谬”,“愚蠢”和“非常愚蠢”。
反对赋予人工智能作者身份的论点是,软件根本无法履行所需的职责,正如Skipper和SpringerNature所解释的那样。“当我们想到科学论文、研究论文的作者身份时,我们不仅仅考虑写它们,”斯基珀说。“有些责任超出了出版范围,当然目前这些人工智能工具还无法承担这些责任。
软件不能对出版物承担有意义的责任,不能为其工作主张知识产权,也不能与其他科学家和媒体通信来解释和回答有关其工作的问题。
然而,如果对将人工智能视为作者有广泛的共识,那么即使得到适当的承认,使用人工智能工具撰写论文的清晰度也就不那么明确了。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大性别歧视和种族主义等社会偏见,并倾向于产生“合理的废话”——不正确的信息作为事实呈现。(例如,参见CNET最近使用AI工具来撰写文章。该出版物后来发现超过一半的已发表文章存在错误。
正是由于这些问题,一些组织已经禁止了ChatGPT,包括依赖于共享可靠信息的学校,学院和网站,例如编程问答存储库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实表示作者可以使用此类软件来“润色”和“编辑”他们的工作。在写作和编辑之间划清界限是很棘手的,但对于施普林格·自然来说,这个用例也是可以接受的。
“我们的政策非常明确:我们不禁止将它们用作撰写论文的工具,”斯基珀告诉TheVerge。最根本的是要有清晰度。关于论文是如何组合在一起的,以及使用什么[软件]。我们需要透明度,因为这是如何开展和传播科学的核心。
鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和解释文本,还可以迭代实验设计或用于反弹想法,就像机器实验室合作伙伴一样。像SemanticScholar这样的人工智能软件可以用来搜索研究论文并总结其内容,Skipper指出,另一个机会是使用人工智能写作工具来帮助那些英语不是第一语言的研究人员。“从这个角度来看,这可能是一个平衡工具,”她说。
斯基珀说,在科学工作中禁止人工智能工具将是无效的。“我认为我们可以肯定地说,彻底禁止任何事情都是行不通的,”她说。相反,她说,科学界——包括研究人员、出版商和会议组织者——需要团结起来,制定新的披露规范和安全护栏。
“作为一个社区,我们有责任专注于积极的用途和潜力,然后规范和遏制潜在的滥用,”斯基珀说。“我很乐观,我们可以做到。