跳到主体内容

什么是人工智能幻觉?

屏幕上会显示各种 ChatGPT 提示。

人工智能幻觉是指人工智能工具由于其算法在数据中发现并不存在的模式或错误解读这些模式,而导致输出结果不准确、具有误导性或前后矛盾的情况。

随着人工智能在过去几年中功能和普及程度的不断提升,其一些缺陷和漏洞也逐渐暴露出来。

人们最关心的问题之一是人工智能是否准确。在许多情况下,人工智能已被证明是核实事实和研究信息的极其有效的工具,但在另一些情况下,其结果却不正确或具有误导性。

鉴于人工智能在现代世界的应用范围如此广泛,这些不准确结果的后果可能极其严重。在本文中,我们将探讨人工智能幻觉发生的原因、其从技术和社会角度带来的影响,以及您可以采取哪些措施来最大限度地降低自身使用人工智能幻觉的风险。

人工智能幻觉是如何发生的?

人工智能产生幻觉的原因有很多,很多情况下,是多种因素同时作用的结果。这些原因包括(但不限于):

  • 缺乏足够的训练数据来指导人工智能模型得出全面、准确的结果。
  • 训练数据过多 这会导致过多无关的“数据噪声”与相关且重要的信息混淆。
  • 数据中存在的偏差会反映在生成的结果中。
  • 人工智能模型可能只是根据输入的信息做出了错误的假设和结论。
  • 人工智能模型缺乏现实世界的背景信息,例如物体的物理属性或与生成结果相关的更广泛的信息。

人工智能幻觉是什么样的?

人工智能幻觉没有统一的症状,因为它取决于模型的缺陷和所涉及的过程。然而,通常情况下,人工智能幻觉会以以下五种方式之一表现出来:

  • 预测不准确:人工智能模型可能会预测未来会发生一些实际上发生概率很低甚至根本不可能发生的事情。
  • 摘要信息缺失:有时,人工智能模型可能会遗漏一些关键的背景信息或上下文,导致无法生成准确、全面的结果。这可能是由于模型缺乏必要的数据输入,或是模型无法从其他来源搜索到正确的上下文信息。
  • 使用捏造信息的摘要:与前一点类似,一些人工智能模型可能会通过完全捏造信息来弥补信息不准确的不足。这种情况通常发生在模型所依赖的数据和上下文本身就不准确时。
  • 误报和漏报:人工智能常用于识别潜在风险和威胁,例如医疗保健领域的疾病症状或银行和金融领域的欺诈活动。人工智能模型有时可能会识别出并不存在的威胁,或者在另一种极端情况下,漏掉实际存在的威胁。
  • 结果不合逻辑:如果您见过人工智能生成的图像,例如人物手臂和腿的数量不对,或者汽车的轮子太多,那么您就会知道,人工智能仍然会生成人类无法理解的结果。

为什么避免人工智能的“幻觉”如此重要?

您可能认为人工智能的“幻觉”无关紧要,只需再次运行模型即可解决问题,生成正确的结果。

但事情并非如此简单,任何应用于实际案例或发布到公共领域的人工智能“幻觉”都可能对大量人群造成非常严重的后果:

不道德地使用人工智能

目前,人工智能的使用普遍受到关注,使用这项技术的机构越来越被要求以负责任和合乎道德的方式使用人工智能,避免伤害或危及他人。放任人工智能的“幻觉”未经审查地传播——无论是有意还是无意——都无法满足这些道德要求。

公众和消费者的信任

与前文所述相关,许多人仍然担忧人工智能的应用,从个人数据的使用方式到人工智能日益增强的能力是否会导致他们的工作岗位消失。公共领域不断出现的人工智能幻觉案例可能会削弱公众对人工智能缓慢建立的信任,并导致人工智能应用案例和企业在长期发展中受限。

误导性决策

企业和个人都需要做出最佳、最明智的决策,并且越来越依赖数据、分析和人工智能模型来消除决策中的猜测和不确定性。如果他们被人工智能模型的不准确结果误导,那么他们做出的错误决策可能会造成灾难性后果,从威胁企业盈利能力到误诊病人。

人工智能错误信息的法律和财务风险

正如上文提到的案例有力地表明,不准确的人工智能生成信息可能会从法律和财务角度造成巨大损害。例如,使用人工智能创建的内容可能对某些人或企业构成诽谤,可能违反某些法律法规,甚至在某些极端情况下,还会暗示或煽动人们从事非法活动。

避免偏见

我们生活在一个人们孜孜不倦地努力确保人人平等、不偏袒任何一类人的世界。然而,带有偏见的AI数据却可能在无意中强化许多偏见。人工智能在招聘中的应用就是一个很好的例子:AI的“幻觉”可能导致带有偏见的结果,从而影响组织的多元化、平等和包容性工作。

典型的AI“幻觉”有哪些?

对于业内人士来说,避免AI“幻觉”正成为一项艰巨的任务。而且,这种情况并非只发生在缺乏专业知识和资源的小型企业身上。以下三个AI“幻觉”案例表明,即使是全球最大的科技公司也未能幸免:

Meta AI与唐纳德·特朗普遇刺事件

在2024年7月针对时任总统候选人唐纳德·特朗普的刺杀未遂事件发生后, Meta的AI聊天机器人最初拒绝回答任何有关该事件的问题,后来又声称该事件从未发生过。这个问题导致Meta调整了其人工智能工具的算法,但也引发了公众对其偏见和审查保守派观点的指责。

ChatGPT幻觉和虚假的法律研究

2023年,哥伦比亚一名男子向一家航空公司提起人身伤害索赔。他的律师首次使用领先的人工智能工具ChatGPT来整理案情并准备法律文件。然而,尽管ChatGPT一再保证其找到的六个法律先例都是真实存在的,但实际上这些先例一个也不存在。

微软的人工智能聊天机器人Sydney爱上了用户

据报道,微软的人工智能聊天机器人Sydney告诉《纽约时报》的一位科技专栏作家,它爱上了他,并希望他离开妻子与它在一起。在两个小时的聊天过程中,凯文·鲁斯(Kevin Roose)表示,Sydney向他分享了一些关于传播人工智能虚假信息和变成人类的“黑暗幻想”。

如何才能最大限度地降低人工智能幻觉的风险?

鉴于避免人工智能幻觉风险的重要性,使用人工智能模型的人们有责任采取一切切实可行的措施,以减轻任何可能导致问题的情况。我们建议:

确保人工智能模型有明确的目标

近年来,随着人工智能应用的广泛普及,一个常见的错误是,企业为了使用而使用人工智能模型,却不考虑其预期输出。明确定义使用人工智能模型的总体目标,可以确保结果聚焦,并避免因方法和数据过于宽泛而导致人工智能产生“幻觉”。

提高训练数据的质量

输入人工智能模型的数据质量越高,其输出结果的质量也就越高。一个优秀的人工智能模型应基于相关、无偏见、结构良好且已过滤掉所有无关“数据噪声”的数据。这对于确保生成的结果准确、符合预期且不会引入其他问题至关重要。

创建和使用数据模板

确保人工智能模型的输出与其预期用途紧密相关的一个好方法是使用数据模板。这样可以确保每次使用人工智能模型时,它都能适应以一致的方式提供的数据,从而在正确的上下文中提供一致的且准确的结果。

限制响应和结果的范围

对人工智能模型施加更多限制有助于将潜在结果缩小到所需的范围。这时,过滤工具和阈值就派上了用场,它们为人工智能模型提供了必要的边界,使其分析和生成始终保持在正确的轨道上。

持续测试和改进模型

正如持续改进对于在不断变化的世界中开发优秀的软件至关重要一样,优秀的AI模型也同样如此。因此,所有AI模型都应定期进行测试和改进,以便根据数据、需求和可用上下文信息的变化进行重新校准。

建立人工检查和平衡机制

人工智能尚未达到完全自主运行的绝对可靠程度,因此确保至少存在一些人为监督至关重要。人工检查人工智能的输出可以识别任何人工智能的“幻觉”,并确保输出准确且符合其既定要求。

加强网络安全措施

如果人工智能的“幻觉”可能引入网络安全漏洞,那么就应该确保部署最佳的网络安全解决方案。卡巴斯基加强版互联网安全版标配实时防病毒扫描功能,因此任何由人工智能“幻觉”引入的安全威胁都会在造成任何不利影响之前得到解决和消除。

相关文章:

什么是人工智能幻觉?

人工智能幻觉会导致虚假或误导性信息,从而带来严重风险。了解如何识别和预防人工智能幻觉。
Kaspersky logo

相关文章