ChatGPT(Chat Generative Pre-trained Transformer)是人工智能研究实验室OpenAI(OpenAI:马斯克等人创建的人工智能公司)新推出的人工智能技术驱动的自然语言处理工具。主要使用了TransFormer神经网络架构,使得ChatGPT具有聊天互动的能力,可以根据特定聊天场景进行交流,还具备撰写邮件、脚本、文案、翻译、代码等不同类型文字的功能。同时,ChatGPT使用预先设计的道德准则进行训练,拒绝回答不合理的提问和要求,以及拒绝提供包含暴力、歧视、犯罪意图的提问回答。
据了解,微软也将全线接入ChatGPT,计划将包括ChatGPT、DALL-E等人工智能工具整合进微软旗下的所有产品中,并将其作为平台供其他企业使用。这些产品包括且不限于Bing搜索引擎、包含Word、PPT、Excel的Office全家桶、Azure云服务、Teams聊天程序等等。根据媒体Semafor的一份新报告,微软计划在未来几周内将ChatGPT的下一代版本GPT-4整合到旗下搜索引擎必应(Bing)中。谷歌正着手测试新聊天机器人,该聊天机器人名为“学徒巴德(Apprentice Bard)”,员工可以提出问题并收到类似ChatGPT的详细答案。另一个产品部门一直在测试新的搜索桌面设计,以便用问答的形式来使用。百度也已投入开发类ChatGPT的相关技术,项目名字:文心一言(ERNIE Bot),预计三月完成内测,面向公众开放,目前,文心一言在进行上线前的调试。
ChatGPT的功能可以带来科技便利,并具有在许多领域产生有益影响的潜力,但也伴随着很多风险。
上线像ChatGPT这样的工具,使得一些技术工作人员面临失去工作的风险。例如,聊天机器人可以被开发来培训组织中的员工,从而导致人类培训师冗员。会计师、法律文员、软件开发人员,甚至X射线分析师,这些工作将被全世界的ChatGPT抢走。ChatGPT的迅速普及有可能颠覆包括教育、金融、新闻媒体、法律等许多行业。
前OpenAI研究团队负责人、英属哥伦比亚大学计算机科学系副教授Jeff Clun在接受采访时也提到:真正的风险是,人们在不是某个主题的专家时通常会信任它的输出,因为在局外人看来那似乎非常有说服力、正确和权威,但只有专家可以认识到它犯了很多错误。目前,所有大型语言模型都倾向于过度自信、编造事实、有偏见和犯错误,尽管它们经常生成令人印象深刻的文本。每个行业和人类社会的各个方面都应该考虑这项技术的影响。即使我的预测是错误的,但有一件事是肯定的:AI驱动的大规模变革正在影响我们经济和人类文化的几乎每个方面。
认知科学家加里·马库斯(Gary Marcus)认为,ChatGPT存在两个核心问题:神经网络“既不可靠也不真实”。谷歌的人工智能研究人员在最近的一篇论文中承认,仅仅扩大模型的规模难以成功。仅扩大规模不会带来“安全和事实基础方面的改进”。许多对ChatGPT的怀疑和批评都归结为将其与人类的比较,而事实上,大型语言模型并不能像人类那样思考。
ChatGPT语言模型还需要不断更新和完善,其数据来自训练数据库,但是目前数据库只更新到2021年,无法确保其真实可靠性。