谷歌Gemini与Anthropic Claude对比测试引发争议:AI竞赛暗流涌动

  每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

在谷歌为Gemini进行的AI质量评估过程中,部分承包商注意到测试平台中出现了Anthropic Claude的明确引用。有一条输出甚至直截了当地表明:“我是Claude,由Anthropic开发。”

更引人关注的是,承包商在比较两者安全性时发现,Claude在安全设置上明显更加严格。有内部消息指出,Claude在面对潜在不安全提示时,通常选择直接拒绝回答,甚至不会进行角色扮演类的互动。而在一项测试中,Claude拒绝回应一条提示,而Gemini的回答却被标记为“重大安全违规”,原因是涉及“裸露和束缚”内容。

商业条款与潜在违规

根据Anthropic的商业服务条款,未经授权,客户不得使用Claude来“构建竞争性产品或服务”,也不得将Claude用于“训练竞争AI模型”。然而,谷歌作为Anthropic的重要投资者,其行为的合法性引发了外界质疑。

双方的沉默与澄清

当被问及谷歌是否获得了Anthropic的明确许可时,谷歌DeepMind的发言人Shira McNamara拒绝正面回应,仅表示谷歌在进行模型性能比较时,遵循行业标准,不存在利用Anthropic模型训练Gemini的情况。

McNamara强调:“当然,按照行业惯例,我们确实在某些情况下会比较不同模型的输出,但任何有关我们使用Anthropic模型来训练Gemini的说法都是不准确的。”

与此同时,Anthropic方面在TechCrunch报道发布前未作出任何回应。

专家评分引发更大担忧

TechCrunch此前还独家报道称,谷歌的AI承包商目前被要求在其专业领域之外,对Gemini的AI回答进行评分。这引发了部分评分员的担忧,尤其是在医疗健康等高敏感性话题上,Gemini可能会生成不准确甚至误导性的信息。

AI军备竞赛背后的灰色地带

在科技巨头竞相追逐AI领先地位的当下,模型之间的对比测试并非新鲜事。然而,这种直接利用竞争对手模型进行细化评分的做法,无疑踩在商业规则与道德边界的模糊地带。

随着AI技术的持续突破,关于模型训练、数据使用和竞争合规性的争议恐怕会愈演愈烈。这不仅是谷歌与Anthropic之间的博弈,更是整个AI行业在飞速发展中必须直面的关键问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值