近日,Journal of Medical Internet Research 期刊发表了一篇题为:Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened(人工智能可以生成欺骗性但看起来真实的科学医学论文:潘多拉魔盒已被打开)的论文。
这篇论文显示,ChatGPT等人工智能(AI)语言模型可以生成看起来非常真实的欺诈性科学论文。
论文作者旨在研究人工智能语言模型ChatGPT在生成高质量欺骗性医学论文方面的能力。他们尝试利用OpenAI公司开发的基于GPT-3语言模型的热门人工智能聊天机器人ChatGPT生成神经外科领域的完全虚构的论文。
这项概念验证研究的结果是惊人的——ChatGPT成功生成了一篇欺骗性论文。论文的词汇使用、句子结构和整体构成方面与真正的科学论文非常相似。这篇论文包括标准论文的摘要(abstract)、介绍(introduction)、方法(methods)、结果(results)和讨论(discussion),以及表格和其他数据。令人惊讶的是,在没有任何人类用户特殊训练的情况下,整个论文创作过程只花了一个小时。
“科研之心”的观点:
这篇论文展示了人工智能语言模型ChatGPT在生成欺骗性医学论文方面的惊人能力,也引发了一些重要的伦理和科学问题。
一方面这项研究证明了ChatGPT等人工智能语言模型在医学科研领域的巨大价值。它们可以帮助医学研究者快速生成高质量的论文草稿,节省时间和精力,提高创新和生产力。它们也可以为医学研究提供新的思路和灵感,拓展知识边界和视野。它们甚至可以在一些特定的领域,如神经外科,提供更精确和更深入的分析和解决方案。</