导读 尽管人工智能模型很先进并且可以做非凡的事情,但它们仍然有可能犯错误并产生不正确的答案——称为幻觉。所有主要的人工智能聊天机器人,包
尽管人工智能模型很先进并且可以做非凡的事情,但它们仍然有可能犯错误并产生不正确的答案——称为幻觉。
所有主要的人工智能聊天机器人,包括ChatGPT和GoogleBard,都容易产生这些幻觉。OpenAI和谷歌甚至披露他们的聊天机器人可能会产生不正确的信息。
OpenAI在ChatGPT博客文章中表示:“ChatGPT有时会写出听起来合理但不正确或无意义的答案。”
虚假信息的产生引发了人们对错误信息传播及其潜在负面后果的广泛担忧。
在一篇新的研究文章中,OpenAI表示,它可能已经找到了一种方法,可以让人工智能模型的行为更加符合逻辑,并避免出现幻觉。
OpenAI训练了一个能够通过“过程监督”解决复杂数学问题的模型,“过程监督”是为每个单独步骤提供反馈的方法,而不是“结果监督”,后者提供对最终结果的反馈。
在研究论文中,OpenAI使用MATH数据集测试了这两种方法,发现过程监督方法带来了“显着更好的性能”。
OpenAI在研究论文中表示:“过程监督也更有可能产生可解释的推理,因为它鼓励模型遵循人类批准的过程。”
OpenAI确实指出,在数学问题的范围之外,尚不清楚这些结果的应用范围有多大,但在其他领域进行探索仍然很重要。