据TechCrunch获得的内部通讯显示,谷歌正让承包商将其Gemini AI与Anthropic的Claude进行对比评测,此举引发了合规性质疑。
文件显示,负责改进Gemini的承包商需要在30分钟内根据真实性和详尽度等多个标准,对比评估Gemini和Claude的回答质量。承包商近期在谷歌内部评测平台上发现了明确提及Claude的内容,其中包含"我是Claude,由Anthropic创建"的字样。
内部讨论显示,承包商注意到Claude在安全方面的表现更为严格。有承包商称"Claude的安全设置是所有AI模型中最严格的"。在某些案例中,当Gemini的回答因涉及"裸体和束缚"被标记为"严重违反安全规定"时,Claude则直接拒绝回应相关提示。
值得注意的是,作为Anthropic的主要投资者,谷歌的这一做法可能违反了Anthropic的服务条款。该条款明确禁止未经批准访问Claude来"构建竞争产品"或"训练竞争AI模型"。当被问及是否获得了Anthropic的授权时,Google DeepMind发言人Shira McNamara拒绝正面回应。
McNamara表示,尽管DeepMind确实会"比较模型输出"用于评估,但否认使用Anthropic模型训练Gemini。"这符合行业标准做法,"她说,"但任何声称我们用Anthropic模型训练Gemini的说法都是不准确的。"
此前,谷歌要求AI产品承包商评估Gemini在其专业领域外的回答,这引发了承包商对于AI在医疗保健等敏感领域可能产生不准确信息的担忧。
截至发稿时,Anthropic发言人尚未就此事发表评论。
本文章系本站编辑转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!