谷歌已就其Gemini 模型针对特定提示生成不准确的人工智能图像的问题提出了正式的后续行动。
据谷歌称,当用户向机器人发出提示,要求提供有关特定文化或历史时间线的一系列图像时,他们“绝对应该得到准确反映”其意图的响应。然而,事实并非如此,谷歌表示,其“调整”措施是事情首先出现问题的地方。
该帖子补充道,“我们对其进行了调整,以确保它不会陷入我们过去在图像生成技术中看到的一些陷阱”,例如滥用或露骨图像。不幸的是,正如谷歌解释的那样,他们的调整没有考虑到不适合广泛多样性的情况。
第二个缺陷是双子座变得“谨慎”,拒绝提示,同时对待他人非常敏感。据说这两个问题都是双子座错误的催化剂,因为它试图“过度补偿”。
该公司表示这“不是我们的初衷”。谷歌还反对故意制造涉及历史内容的不准确信息。为了解决这些问题,谷歌将把 Gemini 的人工智能图像生成带回测试期以解决问题。
该帖子补充说,谷歌不能保证 Gemini 不会产生幻觉或创造“令人尴尬、不准确或令人反感的结果”,即使工作已经完成。不过,该公司声称,一旦出现问题,它将采取适当的行动。
与此同时,谷歌建议用户应该使用搜索的人工智能图像生成功能,因为它使用的系统利用了来自网络的“新鲜、高质量的信息”。