IT之家 2 月 22 日消息,综合 BBC、The Verge 报道,谷歌正在“加紧”修复 Gemini 大模型的文生图功能,因为该功能被曝存在刻意追求“多元化”的 bug。
报道援引部分用户反馈称,Gemini 在图片中生成了各种性别、种族的人群,即使生成的结果与史实不符,例如以“美国开国元勋华盛顿”为主题的图片中,出现了妇女和有色人种。
不仅如此,还有网友发现“让 Gemini 承认白人的存在难得令人尴尬”:要求生成“1943 年德军士兵”的图片时,Gemini 居然向其展示了由黑人、亚裔和白人女性身穿纳粹德军制服的照片。
对此,谷歌在其声明中表示,已经意识到 Gemini“在某些历史图像生成描述中提供了不准确的信息”,并将立即进行修复。
Gemini 的文生图功能确实会生成各种各样的人,这通常是件好事,因为世界各地的人们都在使用它。但它在这里失误了。
谷歌还给 The Verge 提供了另一份声明,其自称“尝试提高多元化是有道理的”,因为在生成式 AI 中长期缺乏这一特性。“图像生成器是在大量图片和文字说明的基础上进行训练的,以生成‘最适合’给定提示的图像,这意味着它们往往容易放大刻板印象。”
据IT之家此前报道,Gemini 模型的文生图功能由谷歌 Imagen 2 模型提供支持,但需要英语指令,用户可以根据向 Bard 提供的描述生成自定义图像。谷歌承诺,Bard 可提供“高质量、逼真的图像输出”。