几周前,谷歌为Gemini推出了一款新的图像生成工具(之前称为Bard和Duet的人工智能工具套件),该工具允许用户根据简单的文本提示生成各种图像。不幸的是,谷歌的人工智能工具屡次未能达到目标,生成不准确甚至令人反感的图像,这让我们很多人都想知道——这个机器人怎么会犯如此大的错误?好吧,该公司终于发布了一份声明,解释了问题所在,以及计划如何修复Gemini。
解决该问题的官方博客文章指出,在为Gemini设计文本到图像功能时,Gemini背后的团队希望“确保它不会陷入我们过去在图像生成技术中看到的一些陷阱”——比如创作暴力或露骨的色情图像,或对真人的描绘。”该帖子进一步解释说,用户可能不想继续看到只有一种种族或其他显着特征的人。
因此,为正在发生的事情提供一个非常基本的解释:当提示生成白人历史人物的图像时,双子座一直在抛出有色人种的图像,为用户提供“多样化的纳粹”,或者干脆忽略提示中的部分您已经明确指定了您要寻找的内容。虽然Gemini的图像功能目前处于暂停状态,但当您可以访问该功能时,您需要准确指定您要生成的对象-谷歌使用的示例是“带狗的白人兽医”-而Gemini似乎会忽略该功能的前半部分这会促使并产生除您所要求的以外的所有种族的兽医。
谷歌接着解释说,这是两个重大失误的结果-首先,双子座展示了一系列不同的人,而没有考虑不展示的范围。除此之外,谷歌承认,在试图打造一个更有意识、更少偏见的生成人工智能的过程中,“模型变得比我们预想的更加谨慎,并且完全拒绝回答某些提示——错误地将一些非常镇痛的提示解释为敏感。”
截至撰写本文时,在Gemini上生成人物图像的功能已暂停,同时Gemini团队正在努力修复不准确之处并进行进一步测试。该博文指出,对于复杂的深度学习模型来说,人工智能“幻觉”并不是什么新鲜事——甚至Bard和ChatGPT在这些机器人的创建者解决这些问题时也曾发过一些可疑的脾气。
这篇文章的结尾是谷歌承诺继续致力于Gemini人工智能驱动的人类一代,直到一切都解决为止,并指出,虽然该团队不能承诺它永远不会产生“令人尴尬、不准确或令人反感的结果”,但会采取行动正在采取措施确保尽可能少地发生这种情况。
总而言之,这整集让我们看到,人工智能的智能程度取决于我们的能力。我们的主编LanceUlanoff简洁地指出:“当人工智能不了解历史时,你不能责怪人工智能。”随着人工智能迅速席卷并渗透到我们日常生活的各个方面(无论我们是否愿意),我们很容易忘记人工智能在公众中的普及只是18个月前才开始的。尽管我们目前可用的工具令人印象深刻,但我们最终仍处于人工智能的早期阶段。