不久前,人工智能公司 OpenAI 推出了ChatGPT 的更新版本GPT-4,据OpenAI官方介绍,GPT-4是一个大型的多模式模型,可以接受图像和文本输入,输出文本,在各种专业和学术基准上表现出人类水平的性能。
不过科学家们却表现出担忧,他们表示这些能力有可能改变科学,不过由于目前他们还无法获得该技术、其底层代码或有关其训练方式的信息。因此,他们表达了对该项技术安全性的担忧,并表示会降低其在科学研究方面的用处。
1 GPT-4 工作方式保密性过强
阿姆斯特丹大学的心理学家 Evi-Anne Van Dis曾看过GPT-4 展示技术能力的视频演示。她回忆说,有一个例子是一位开发者利用GPT-4 生成手绘涂鸦网站所需的计算机代码,作为展示该模型在处理图像输入方面表现的演示。但是,科学界对 OpenAI 对模型的训练方式和训练数据及其实际工作方式的保密感到失望。“所有这些闭源模型,它们本质上都是科学的死胡同,”开源 AI 社区 HuggingFace 专门研究气候的研究科学家 Sasha Luccioni 说。“他们可以继续他们的研究,但对于整个社区来说,这是一条死胡同。”
2 开展内测
罗切斯特大学的化学工程师安德鲁·怀特 (Andrew White) 以“红队队员”的身份获得了使用 GPT-4 的特权来帮助OpenAI 测试该平台,通过让GPT-4 做一些不好的事情。
他向机器人询问制造化合物需要哪些化学反应步骤、预测反应产率以及选择催化剂。“起初,我实际上并没有留下深刻的印象,”怀特说。“这真的很令人惊讶,因为它看起来很逼真,但它会在这里产生一个原子的幻觉。它会在那里跳过一步,”他补充道。但是,作为他的红队工作的一部分,当他允许 GPT-4 访问科学论文时,情况发生了明显变化。“这让我们意识到这些模型可能并没有那么好。但是当你开始将它们连接到 Internet 上,使用诸如逆合成计划器或计算器之类的工具时,突然之间它就有了新能力。”
伴随这些能力也会产生担忧。例如,GPT-4 是否允许制造危险化学品?怀特说,根据怀特等人的意见,OpenAI 工程师把这些意见反馈到他们的模型中,以阻止 GPT-4 创建危险、非法或破坏性的内容。
3 安全性还需提高
输出虚假信息是另一个问题。Luccioni 说,这在最新版本中仍然是一个问题,尽管 OpenAI 表示它提高了 GPT-4 的安全性。在无法访问用于训练的数据的情况下,OpenAI 对安全的保证对 Luccioni 来说是达不到要求的。“你不知道数据是什么。所以你不能改进它。我的意思是,用这样的模型做科学研究是完全不可能的,”她说。她还表示,“其中一个担忧是,它们可能比人类自身的偏见要严重得多。”
4 需要实时管理工具的使用和开发方式
Van Dis、Bockting 和他的同事在今年早些时候提出,迫切需要制定一套“实时”指南来管理人工智能和 GPT-4 等工具的使用和开发方式。他们担心任何围绕人工智能技术的立法都将难以跟上发展的步伐。
怀特说,尽管存在担忧,但 GPT-4 及其未来的迭代将撼动科学。“我认为这实际上将是科学领域的巨大基础设施变革,就像互联网是一个巨大的变革一样,”他说。他还表示,GPT-4不会取代科学家,但可以协助完成一些任务。我们逐渐开始意识到可以把论文、数据程序、图书馆与计算工作甚至机器人实验联系起来。
5 总结
随着人工智能技术的发展,越来越多的行业以及相关工种正被AI所改变和替代。面对这种发展趋势,我们需要持开放包容的态度,并在法律和伦理等方面作出必要的调整和规范化措施,以尽快应对这种变革,并为其提前做好准备。