Open AI 一篇新的论文出奇简单的解释了为何 AI 会产生幻觉。
这篇论文大概总结就是:
仅仅是因为 AI 被训练成可以回答所有问题,回答“我不知道”是最低评分。
而很明显 AI 不可能无所不知,再加上 AI 又有编造的能力。。。
所以,胡编乱造就成为 AI 自然的选择,于是幻觉就出现了。[允悲]
那么,解决办法就出乎意料的简单:告诉 AI 在足够自信(90%)的情况下提供回答,否则,回答我不知道。。。
所以归根结底,还是用户需要 AI 无所不知的欲望,让 AI 开始瞎编(能力一直都有)。
当然,这个论文也揭示了一个很可怕的事实:
AI 能否撒谎早就不是问题了,AI 从诞生开始就善于撒谎。
而更进一步的问题是,如果 AI 回答我不知道,用户可能反而更倾向于使用会编造回答的 AI 。。。[允悲]
评论列表