首页 要闻 > 内容

新的微软必应有时会歪曲它找到的信息

时间:2023-02-08 11:26:15   来源:  编辑:

今天,微软宣布了其Bing搜索引擎的新版本,该引擎将通过利用ChatGPT的强大功能为您的问题提供“完整答案”。您已经可以尝试一些预制示例搜索并注册更多。

但是,尽管与2016年与Tay的失败相比,微软采取了许多预防措施-Twitter在不到一天的时间内教导这是一个聊天机器人,是种族主义者和厌恶女性的人-该公司仍然积极警告说,一些新的Bing的结果可能很糟糕。

以下是微软新的必应常见问题解答中的几个关键段落:

必应试图保持答案的趣味性和真实性,但鉴于这是一个早期预览,它仍然可能会根据汇总的Web内容显示意外或不准确的结果,因此请使用您的最佳判断。

必应有时会歪曲它找到的信息,你可能会看到听起来令人信服但不完整、不准确或不适当的回复。在根据必应的回答做出决定或采取行动之前,使用您自己的判断并仔细检查事实。

在今天对新必应的早期实践中,我们看到并非所有的错误都很容易发现。当我们要求GPT驱动的聊天机器人告诉我们“微软今天宣布了什么”时,它正确地描述了由OpenAI提供支持的新Bing搜索引擎,但也建议微软演示其“名人模仿”功能。

也许我们错过了那个演示?该机器人还表示,微软对OpenAI的数十亿美元投资是今天宣布的,尽管它发生在两周前。

该公司的常见问题解答基本上表明,必应的结果只会与它在互联网上找到的信息一样准确,虽然这有点像逃避,但我个人完全赞成教人们怀疑他们阅读和看到的东西。“确保检查事实”是生活,时期的好建议。哪里?这是一个更难的问题。

微软将其聊天机器人直接放在普通的Bing搜索结果旁边,这确实有帮助,因此您可以在两者之间进行交叉引用。微软表示,它还将识别Bing的聊天机器人用来得出结论的一些来源。

标签:
最新文章