(原创)图说运医系列-人工智能聊天机器人ChatGPT正在影响医学文献

赖卫国
创建于2023-02-06
阅读 0
收藏TA

需扫码在手机上打开
文章后点击更新提醒

进入农历兔年,科技界最热门的话题莫过于ChatGPT了。今天图说运医系列来聊一下这个热门话题。

今天的话题不是介绍运医技术,内容的来源是《Arthroscopy》杂志资深主编James H. Lubowitz, M.D.回复编辑委员会成员Ron Gilat和杂志董事会成员以及AANA前总裁Brian Cole的来信。

2023年1月4日,Gilat和Cole的来信

Gilat和Cole在给编辑的信中写道:“人工智能将如何影响科学写作、评论和编辑?”未来在这里…”,ChatGPT现在正在影响医学文献。因为ChatGPT是用来写这封信的一部分,我们可以肯定地说,ChatGPT现在已经发表在《Arthroscopy》关节镜杂志上了。

ChatGPT是人工智能(AI)聊天机器人工具。换句话说,ChatGPT是一台机器、一个程序、一个机器人,或者从技术上讲,是一个大型语言模型,它接受了来自互联网的大量信息的训练。它能够通过回答问题来回应用户的提示;写作散文、诗歌、情书、计算机代码或商业计划;解决包括数学或物理在内的问题。更进一步的。“机器人不只是搜索和总结已经存在的信息。它可以根据你的要求创造新的内容。”ChatGPT已经被用于报纸和杂志文章的部分写作,测试读者判断写作是由聊天机器人还是人类的能力,所以编辑委员会成员Ron Gilat和杂志董事会成员以及AANA前总裁Brian Cole现在使用聊天机器人来写他们的部分信件也就不足为奇了。

Gilat和Cole警告说,ChatGPT存在“重大错误和偏见”,并重申了媒体的报道,即聊天机器人存在“错误信息问题”,并不总是说真话,可能被“武器化传播虚假信息”,并可能被用来制造“深度造假”。 

Gilat和Cole进一步警告说:“作为作者,我们需要确保我们不使用这些工具来组成科学工作的任何部分,直到这些工具被……验证……并且……完全准确……(并且)仅限于不损害工作的完整性和原创性的特定任务,并受到细致的人工监督。”这与中国互联网监管机构——国家互联网信息办公室——对“所谓的‘深度合成’技术,包括由人工智能驱动的图像、音频和文本生成软件,防止传播‘假新闻’或被认为对经济或国家安全具有破坏性的信息”的监管是一致的。并要求“深度合成技术的提供者,包括公司、研究机构和个人,在可能被误解为真实的情况下,将图像、视频和文本标记为合成生成或编辑。”同样,纽约市的公立学校也禁止在学区的网络和设备上使用ChatGPT(警告说,学校可以要求“出于人工智能和技术相关的教育目的访问该工具”)。洛杉矶、旧金山和费城的学区正在努力解决这个问题,而且,正如Gilat和Cole所建议的那样,“一些产品,如turnitin(一种检测工具,成千上万的学区使用它来扫描互联网上的剽窃迹象),现在正在研究它的软件如何检测学生提交的人工智能生成的文本的使用情况。” 

比较有趣的是,主编James H. Lubowitz, M.D.写到这里,开始怀疑这两个编辑的来信前半部分是机器人写的,因为:

(1)ChatGPT没有大写,而且间隔不正确;

(2)作者最初没有向读者解释ChatGPT是什么和做什么;

(3)没有证明人,而很多地方明显需要证明人;

最后,(4)机器人写的最后一段文字,加上最后一段之前的句子,完全没有添加任何没有说过的、应该被删除的冗余内容。

在主编James H. Lubowitz, M.D.的经验中,一些新手作家可能会犯一些或所有这些错误,而Gilat和Cole是主编熟知的经常获奖的作家和编辑。他很惊讶他们提交的信写得这么差! 

然而,当主编继续读下去时,主编意识到了这个诡计。前面的来信确实是机器人写的。

还有其他一些评论。正如互联网可以包含导致ChatGPT出错的扭曲,用户输入也可以引导聊天机器人传递错误信息。根据国际医学期刊编辑委员会的建议,作者对已发表的作品负有“责任和问责”。当我们审稿人和编辑尽最大努力使论文更好,尽最大努力发现错误或偏见时,作者要对他们的工作负责。然而,Gilat和Cole指示机器人提供“关于人工智能和工具影响的见解”,并撰写“审稿人和编辑应该做些什么来调整和保持期刊的高科学标准”,因此,聊天机器人写道,“因此,审稿人和编辑仔细检查他们审阅的论文,以确定可能由人工智能工具引入的任何错误或偏见是很重要的。”再者,审稿人、编辑和我们博学的读者当然必须“考虑论文和出版物的科学准确性和有效性”,但从编辑的角度来看,最终是作者负责检查他们的论文是否有错误和偏见,无论是由于人工智能还是其他原因。

Gilat和Cole (这部分不是机器人)还写道,作者不应该“使用这些工具来撰写科学论文的任何部分”,并写道,在未来,这些工具可能会被用于“不损害工作完整性和原创性并受到人类细致监督的特定任务”。无论如何,无论是现在还是将来,作者100%同意需要为聊天机器人工具提供“细致的人工监督”,无论这种监督是以基本的拼写检查、添加相关参考文献的形式,还是学术审查的形式,以确保没有错误和偏见。最后,主编认为中国网信办关于图片、视频和文字的作者应该全部或部分地标明为合成的想法是一个好主意。主编打算和他的编辑同事们一起讨论这个问题,主编也询问了出版商对这种潜在政策的看法。

《Arthroscopy》杂志

最后,主编非常感谢前面来信的两位编辑的前瞻性思维和学术领导力。他们的来信很有启发性,激发了大量的思考、尽职调查和大量的学习,最终应该会改善这份影响因子为5.973的专业关节镜杂志的专业性。

2023年2月6日写于上海

阅读 0
文章由 美篇工作版 编辑制作
投诉