原始标题:为什么人工智能在科幻电影中产生幻觉(破碎的“科学”),人工智能通常被描述为令人难以置信且未知的“多余大脑”,但实际上,AI通常将自己表现为“自信的谎言”。例如,要求AI描述“ Guan Gong and Qin Qiong”,它不仅可以“重述”虚构的故事情节,而且还可以“猜测”用户的偏好,并认真地制作无人空闲的档案。这种现象被称为“ AI幻觉”,已成为涵盖许多人工智能公司和用户的真正问题。 AI为什么要认真谈论?根源的原因是它认为与人类的基本不同。如今,人们使用的AI模型和大多数曝光的日子 - 日子生命本质上是对语言和模型的相似性的主要预测。它检查了互联网上数万亿的文本,了解单词之间关系的政策,然后产生看似原因有能力的单词通过猜测这个词来回答。这种机制使人工智能模仿人类语言风格,但有时缺乏区分真实性的能力。幻觉的出现-AI的消费不能与大型模型培训的过程分开。 AI的知识系统通常来自培训期间的“吞咽”数据源。互联网上有各种各样的信息,包括虚假信息,虚构的故事和偏见的意见。当此信息成为AI培训的数据源时,将进行MAP污染的数据来源。当某个领域中没有足够的专业数据时,AI可以通过模糊的统计策略“填补空白”。例如,将科学小说中的“黑色技术”描述为现实生活中的技术。在越来越多地用于信息制造的AI上下文中,AI产生的基于内容的大量内容和错误信息进入池下一代AI的培训池。 “桅杆娃娃”生态系统将进一步加剧AI幻觉的出现。在大型模型的培训期间,为了使AI生成满足用户需求的内容,培训师将建立特定的奖励机制 - 对于数学问题和其他需要逻辑推理的问题,如果答案正确,则经常会奖励他们的确认;对于诸如写作之类的公开措施,有必要判断产生的内容是否符合人类写作习惯。为了训练效率,该判断更多地关注指标,例如语言格式的逻辑和AI的内容,但忽略了真相的验证。此外,培训过程中的缺陷还将导致AI倾向于“请”用户。尽管他们知道答案不符合事实,但他们愿意按照说明来生成与用户匹配的内容,并制作一些错误的eXamples或看似科学的术语以支持其“假设”。这种“角色扮演”的表达使许多普通用户很难识别AI幻觉。一项由媒体学院进行的全国样本调查和上海北北大学的交流表明,大约70%的受访者对从大型模型中开发错误或虚假信息的风险没有清楚的了解。如何嘲笑AI的幻觉?开发人员试图通过技术手段“纠正” AI。例如,“检索增强产生”的技术意味着AI需要在响应之前从最新数据库中获取信息,从而减少了“不知情的河流”的可能性;某些模型必须积极地承认他们不确定时“不知道”,而不是强迫他们编辑它们。创建答案。但是,由于当前的AI不了解像人类这样的语言背后的现实世界,因此这些方法很难o从幻觉的问题开始。要应对AI的幻觉,不仅在技术法规中有必要,而且还必须从公民的AI识字,平台责任和公共交流的广泛性中发展系统的“疾病幻觉”。 AI素养不仅包括基本的AI使用技能,而且更重要的是,它需要提供幻觉的基本功能。阐明技术平台责任的界限也很重要。在设计AI产品时,应嵌入风险警告机制,自动标记警告内容,例如“也许是事实错误存在”,并提供功能,以促进用户执行现实验证和交叉验证。媒体可以通过定期发布典型的AI事实案例来进一步发展识别PubBend的能力。通过许多政党的共同努力,可以真正消除聪明天气中的认知雾。 )原始标题:为什么人工智能产生幻觉