{ "id": "conv_20251024_212026_200", "title": "为什么大模型会有幻觉?", "created_at": "2025-10-24T21:20:26.200893", "updated_at": "2025-10-24T21:26:56.504127", "messages": [ { "role": "user", "content": "为什么大模型会有幻觉?", "timestamp": "2025-10-24T21:20:42.881554" }, { "role": "assistant", "content": "我来为你详细解释一下大模型产生幻觉的原因。让我搜索一些最新的研究信息来给你更全面的答案。", "timestamp": "2025-10-24T21:20:45.364692" }, { "role": "assistant", "content": "", "timestamp": "2025-10-24T21:20:45.368217", "tool_calls": [ { "id": "web_search:0", "index": 0, "type": "function", "function": { "name": "web_search", "arguments": "{\"query\": \"大模型幻觉产生原因 hallucination reasons large language models\", \"max_results\": 5}" } } ] }, { "role": "tool", "content": "{\"success\": true, \"summary\": \"🔍 搜索查询: 大模型幻觉产生原因 hallucination reasons large language models\\n📅 搜索时间: 2025-10-24T21:20:49.559043\\n🎯 过滤条件: Topic: general\\n\\n📝 AI摘要:\\nLarge language models can generate incorrect or misleading information due to training data issues and model limitations. Hallucinations are inherent and cannot be fully eliminated. Mitigation strategies include improving data and model training.\\n\\n---\\n\\n📊 搜索结果:\\n\\n1. 大模型还能产生幻觉?一文讲透大模型幻觉原理和解决方案 - 敏捷开发\\n 🔗 https://www.minjiekaifa.com/agilearticles/llm-hallucination-80500.mhtml\\n 📄 斯坦福大学和耶鲁大学的研究人员在关于三种流行的大语言模型(LLM)的研究预印本中发现,类似的错误在人工智能生成的法律输出里极为普遍。\\n\\n无论是哪种大模型,都会出现不同程度的“幻觉”。其症状的轻重,与科技公司的实力相关。\\n\\n一般来说, 大模型幻觉分为两大类:事实性幻觉和忠实性幻觉 。\\n\\n事实性幻觉强调生成的内容与可验证的现实世界事实之间的差异 。其通常表现为事实不一致或捏造。比如说回答历史事件的具...\\n\\n2. 什么是大语言模型的幻觉(AI Hallucinations)?如何解决? - 澳鹏\\n 🔗 https://www.appendata.com/blogs/ai-hallucinations\\n 📄 随着使用生成式AI应用程序的大型语言模型(LLM)日趋复杂,人们愈发担心这些模型可能会产生不准确或具误导性的输出。该问题称之为“幻觉”,即AI模型会产生完全捏造的信息,既不准确也不真实。幻觉对各项应用均可能产生严重影响,包括客户服务、金融服务、法律决策和医疗诊断等。\\n\\n如果AI模型所生成输出没有任何已知事实的支持,幻觉便会发生。究其原因,可能是由于训练数据错误或不足,或是模型本身的偏见,且大型语言...\\n\\n3. Survey and analysis of hallucinations in large language models\\n 🔗 https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1622292/full\\n 📄 Broadly, hallucinations in LLMs can be divided into two primary sources: (1) Prompting-induced hallucinations, where ill-structured, unspecified, or misleading prompts cause inefficient outputs (Reyno...\\n\\n4. Hallucination in Large Language Models: What Is It and Why Is It ...\\n 🔗 https://medium.com/@sahin.samia/hallucination-in-large-language-models-what-is-it-and-why-is-it-unavoidable-d9ddc1ebc29b\\n 📄 In the context of AI and large language models (LLMs), hallucination refers to instances where the model generates information that is factually incorrect, logically inconsistent, or completely fabric...\\n\\n5. 浅谈大模型“幻觉”问题_大模型捏造事实和数据驱动 - CSDN博客\\n 🔗 https://blog.csdn.net/Jailman/article/details/136843318\\n 📄 最近这一两周不少公司都已经停止秋招了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。多模态 _大模型_(Multimodal Large Language Models, MLLMs)在视觉问答、OCR等诸多多模态任务上取得了令人印象深刻的表现。然而,已...\", \"filters\": {\"topic\": \"general\"}, \"query\": \"大模型幻觉产生原因 hallucination reasons large language models\", \"results\": [{\"index\": 1, \"title\": \"大模型还能产生幻觉?一文讲透大模型幻觉原理和解决方案 - 敏捷开发\", \"url\": \"https://www.minjiekaifa.com/agilearticles/llm-hallucination-80500.mhtml\", \"content\": \"斯坦福大学和耶鲁大学的研究人员在关于三种流行的大语言模型(LLM)的研究预印本中发现,类似的错误在人工智能生成的法律输出里极为普遍。\\n\\n无论是哪种大模型,都会出现不同程度的“幻觉”。其症状的轻重,与科技公司的实力相关。\\n\\n一般来说, 大模型幻觉分为两大类:事实性幻觉和忠实性幻觉 。\\n\\n事实性幻觉强调生成的内容与可验证的现实世界事实之间的差异 。其通常表现为事实不一致或捏造。比如说回答历史事件的具体时间或人物关系时出现错误。\\n\\n忠实幻觉是指生成内容与用户构思或输入所提供上下文的差异,以及生成内容内部的自我一致性 。例如要求总结某一篇文章的主要内容,但模型生成的总结包含了原文中没有提到的观点或信息。\\n\\n## 大模型幻觉从何而来?\\n\\nOpenAI华人科学家翁荔,在她最新的Blog中提到: 产生幻觉的原因包括预训练数据问题和微调新知识问题 。\\n\\n 预训练数据问题:使用的这些数据通常是从公共互联网抓取来的,可能存在数据太陈旧、某些关键部分缺失或者本身就是错误的。导致模型在学习这些数据时,记错了信息。\\n 微调:大模型引入新知识时,但模型学习新知识较慢,导致更容易产生幻觉。 [...] yanruiyu 2024-10-23 09:05:00\\n\\n摘要: 什么?大模型还能产生幻觉?\\n\\n“像我们这样相信物理学的人都知道,过去、现在和未来之间的区别只是一种顽固执着的幻觉。换句话说,时间是一种幻觉。”\\n\\n——波尔\\n\\n幻觉,即一种看似真,实为假的感受。最近接触到了一个概念:大模型幻觉。有点好奇,大模型还能产生幻觉?于是查找了一些资料,开始了解。\\n\\n## 大模型幻觉,像你身边那个爱吹牛的熟人\\n\\n关于大模型幻觉,官方一点的说法是这样的:\\n\\n大模型的幻觉问题,即Hallucination,指模型基于有限元素和强大的语言表达能力生成逻辑上似乎合理但实际不符合已知常识的描述。幻觉可能由错误数据、训练过程失误、推理错误等多种原因触发。\\n\\n直白来说,大模型幻觉就是 一本正经地胡说八道 。它就好像饭桌上,那个爱吹牛的熟人,推杯换盏间,嘴里几句真话、几句假话,不得而知。\\n\\n## 幻觉,是大模型的“通病”\\n\\n2023年,一名联邦法官对纽约市的一家律师事务所处以 5000 美元罚款。原因是该所的一名律师,使用ChatGPT 起草了一起人身伤害案件的摘要,而里面捏造了六个以上的案例。 [...] ## 大模型幻觉会停止吗?\\n\\n不会 。在《 hallucination is inevitable: an innate limitation of large language models 》实验论文中,给出了一个基本结果: 即无论模型架构、学习算法、提示技术或训练数据如何改变,对于任何可计算的LLM来说,幻觉是不可避免的 。\\n\\n亚利桑那州立大学研究人工智能的教授 Subbarao Kambhampati,对此也说道:“所有计算机生成的创造力在某种程度上都是幻觉。”\\n\\n此外许多机器学习专家也不认为幻觉是可以修复的。比如微软研究院和佐治亚理工学院发表的《 Calibrated Language Models Must Hallucinate 》研究表示:经过校准的语言模型必然会出现幻觉。\\n\\n所以从技术层面来说,由于现实世界问题的多样复杂性,无论如何训练大模型,总会存在超出模型能力的可解决问题。\\n\\n## 如何应对“幻觉”?\\n\\n“幻觉”虽不会停止,但我们可以尽可能地减轻幻觉。\", \"score\": 0.8665964, \"published_date\": \"\"}, {\"index\": 2, \"title\": \"什么是大语言模型的幻觉(AI Hallucinations)?如何解决? - 澳鹏\", \"url\": \"https://www.appendata.com/blogs/ai-hallucinations\", \"content\": \"随着使用生成式AI应用程序的大型语言模型(LLM)日趋复杂,人们愈发担心这些模型可能会产生不准确或具误导性的输出。该问题称之为“幻觉”,即AI模型会产生完全捏造的信息,既不准确也不真实。幻觉对各项应用均可能产生严重影响,包括客户服务、金融服务、法律决策和医疗诊断等。\\n\\n如果AI模型所生成输出没有任何已知事实的支持,幻觉便会发生。究其原因,可能是由于训练数据错误或不足,或是模型本身的偏见,且大型语言模型鲜有回应“我不知道答案”。为降低这种风险,研究人员正在探索若干种方法。一种方法是对模型输出推行更多约束条件,例如限制回复长度或要求模型回复以已知事实为依据。另一种方法是结合人类反馈,如在RLHF中那样,允许他们标记和纠正任何错误或虚假信息。AI模型的透明度也是一大因素,尤其是在涉及决策过程时。通过增加这些过程的透明度,可以更容易地识别和纠正可能导致幻觉的错误或偏见。 [...] 尽管这些解决方案很有希望,但它们绝非万无一失。随着AI模型日益复杂与强大,新问题也很可能随之出现,这就需要进一步的研究和开发。通过保持警惕和积极主动地应对这些挑战,我们便可以确保生成式AI的好处得以实现,同时最大限度地降低潜在风险。\\n\\n随着AI领域的不断发展,研究人员、开发人员和政策制定者必须协力解决新问题,并确保以负责任和有益的方式使用这些技术。这样一来,我们才能充分发挥AI潜力,同时消除潜在危害。\\n\\n## AI模型幻觉致因\\n\\n导致AI模型产生幻觉有若干因素,其中包括训练数据有偏见或训练数据不足、训练数据过度拟合、上下文理解有限、领域知识缺乏、对抗攻击和模型架构。\\n\\n训练数据有偏见或训练数据不足:AI模型的好坏取决于训练所使用的数据。如果训练数据有偏见、不完整或不足,AI模型可能会基于其对所访问数据的有限理解而产生幻觉。在使用开放的互联网数据训练大型语言模型的情况下,这一点尤其令人担忧,因为互联网中有偏见和错误的信息泛滥。\\n\\n过度拟合:当AI模型与训练数据过度拟合时,它可能会开始生成对训练数据过于具体的输出,不能很好地推广到新数据。这可能导致模型生成幻觉或不相关的输出。 [...] 上下文理解缺乏:缺乏上下文理解的AI模型可能会产生脱离上下文或不相关的输出。这可能导致模型生成幻觉或荒谬的输出。\\n\\n领域知识有限:为特定领域或任务设计的AI模型在接受其领域或任务之外的输入时可能会产生幻觉。这是因为它们可能缺乏生成相关输出所需的知识或背景。当模型对不同语言的理解有限时,就会出现这种情况。尽管一个模型可以在多种语言的大量词汇上进行训练,但它可能缺乏文化背景、历史和细微差别,无法正确地将概念串在一起。\\n\\n对抗攻击:不同于组建一支团队“攻破”模型以改进模型的红蓝对抗,AI模型也易受对抗攻击。当恶意攻击者故意操纵模型的输入时,可能会导致它生成不正确或恶意的输出。\\n\\n模型架构:AI模型架构也会影响幻觉产生的容易程度。由于复杂性增加,具有更多分层或更多参数的模型可能更容易产生幻觉。\\n\\n通过解决这些产生幻觉的主要原因,可以设计和训练AI模型以产生更准确和相关的输出,从而最大限度地降低产生幻觉的风险。\\n\\n## 澳鹏助力解决幻觉问题\", \"score\": 0.8380581, \"published_date\": \"\"}, {\"index\": 3, \"title\": \"Survey and analysis of hallucinations in large language models\", \"url\": \"https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1622292/full\", \"content\": \"Broadly, hallucinations in LLMs can be divided into two primary sources: (1) Prompting-induced hallucinations, where ill-structured, unspecified, or misleading prompts cause inefficient outputs (Reynolds and McDonell, 2021; Zhou et al., 2022; Wei et al., 2022), and (2) Model-internal hallucinations, which caused by the model's architecture, pretraining data distribution, or inference behavior (Bang and Madotto, 2023; Chen et al., 2023; OpenAI, 2023a). Distinguishing between these two causes is [...] While hallucination in Large Language Models (LLMs) is a well-recognized challenge, addressing the root cause of hallucination remains ambiguous. A single erroneous output may occur from a combination of unclear prompting, model architectural biases, training data limitations, or by each one of these factors. To systematically analyze this phenomenon, we introduce an attribution framework that aims to solve the connection of prompting and model behavior to hallucination generated text. [...] • Model-intrinsic hallucinations: even when well organized prompts are used, LLMs may hallucinate due to limitations in training data, architectural biases, or inference-time sampling strategies (Bang and Madotto, 2023; OpenAI, 2023a; Chen et al., 2023).\", \"score\": 0.8325776, \"published_date\": \"\"}, {\"index\": 4, \"title\": \"Hallucination in Large Language Models: What Is It and Why Is It ...\", \"url\": \"https://medium.com/@sahin.samia/hallucination-in-large-language-models-what-is-it-and-why-is-it-unavoidable-d9ddc1ebc29b\", \"content\": \"In the context of AI and large language models (LLMs), hallucination refers to instances where the model generates information that is factually incorrect, logically inconsistent, or completely fabricated. This phenomenon is an innate limitation of LLMs, arising from their inability to perfectly learn or represent all computable functions. Essentially, hallucination occur when there’s a mismatch between the model’s output and the actual ground truth. [...] ## Causes of Hallucination in Large Language Models (LLMs)\\n\\nHallucination in LLMs can arise from various issues across different stages of their lifecycle, from data collection to training and inference. Here, we delve deeper into these causes:\\n\\n### Data-Related Issues [...] 1. Architectural Limitations: The inherent design of LLMs, particularly transformer-based models, can have weaknesses that contribute to hallucination. For instance, the attention mechanism, which helps the model focus on relevant parts of the input, might dilute as the input sequence length increases, leading to less accurate outputs.\", \"score\": 0.82288796, \"published_date\": \"\"}, {\"index\": 5, \"title\": \"浅谈大模型“幻觉”问题_大模型捏造事实和数据驱动 - CSDN博客\", \"url\": \"https://blog.csdn.net/Jailman/article/details/136843318\", \"content\": \"最近这一两周不少公司都已经停止秋招了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。多模态 _大模型_(Multimodal Large Language Models, MLLMs)在视觉问答、OCR等诸多多模态任务上取得了令人印象深刻的表现。然而,已有MLLMs仍然会生成和视觉内容不一致的回复,即 _幻觉_ 现象(Hallucination)。\\n\\n什么是 _大模型_ _幻觉_?它是如何产生的?怎么优化?_ _幻觉_ 回答\\n\\n8-28\\n\\n1、阅读理解任务中的 _幻觉_:_大模型_ 在回答 _问题_ 时,可能会产生与原文无关的答案,甚至编造事实。 2、图像识别任务中的 _幻觉_:_大模型_ 在识别图像时,可能会将无关的物体识别为目标物体,_导致_ 错误判断。 3、生成文本任务中的 _幻觉_:_大模型_ 在生成文本时,可能会产生语法错误、逻辑混乱的现象。 [...] LLMs的 _幻觉_ 可能会产生如传播错误信息或侵犯隐私等严重后果。eg: 在医疗应用中,对患者生成的报告如果存在 _幻觉_ 可能 _导致_ 错误诊断甚至影响生命安全。 _幻觉_ 影响了模型的可靠性和可信度,因此需要解决LLM的 _幻觉_ _问题_。 二、为什么LLM会产生 _幻觉_? _大模型_ 缺乏相关的知识,或者存储的知识是错的。这个 _问题_ 主要是由于预训练数据决定的...\\n\\n聊一聊 _大模型_ _幻觉_:起因、评估及缓解策略探索\\n\\n8-27\\n\\n导读针对 _大模型_ 落地应用的 _问题_,当前行业内普遍的做法是利用 _大模型_ 进行问答,但在实际应用中,这种方法往往效果不佳,很多 _问题_ 的答案并不具有实际参考价值。 作为 _算法_ 人员,我们需要深入了解 _问题_ 的来源,对于 _大模型_ 产生的 _幻觉_ _问题_,我们需要明确其定义,是主观的还是客观的,并探讨如何给出一个可执行的解决方案。\\n\\n_大模型_ _幻觉_ _问题_ 产生原因是什么?如何解决?_大模型_ 学习资源如何获取\\n\\nEnjoyEDU的博客\\n\\n09-03Image 39 1903 [...] 文章标签:\\n#人工智能#神经网络#深度学习\\n\\nImage 11本文探讨了大模型产生幻觉的原因,如数据压缩、理解能力有限和推理过程的随机性,以及从哲学角度分析其对认知、知识和道德责任的启示。同时,文章指出人类也有类似的幻觉现象,如认知偏误,两者都涉及信息处理中的误差和偏差。 \\n\\n> 大模型的幻觉大概来源于 算法 对于数据处理的混乱,它不像人类一样可以by the book,它没有一个权威的对照数据源。\\n\\nImage 12: 在这里插入图片描述\\n\\n### \\n\\nAI_Mind的博客\\n\\n12-07Image 35 1400\", \"score\": 0.7982658, \"published_date\": \"\"}], \"total_results\": 5}", "timestamp": "2025-10-24T21:20:49.563089", "tool_call_id": "web_search:0", "name": "web_search" }, { "role": "assistant", "content": "让我再搜索一些更具体的技术原因:", "timestamp": "2025-10-24T21:20:53.010889" }, { "role": "assistant", "content": "", "timestamp": "2025-10-24T21:20:53.014951", "tool_calls": [ { "id": "web_search:1", "index": 0, "type": "function", "function": { "name": "web_search", "arguments": "{\"max_results\": 3, \"query\": \"大模型幻觉技术原因 训练数据 模型架构 注意力机制\"}" } } ] }, { "role": "tool", "content": "{\"success\": true, \"summary\": \"🔍 搜索查询: 大模型幻觉技术原因 训练数据 模型架构 注意力机制\\n📅 搜索时间: 2025-10-24T21:20:57.433860\\n🎯 过滤条件: Topic: general\\n\\n📝 AI摘要:\\n大模型幻觉源于训练数据缺陷和架构局限。幻觉不可完全消除,但可减轻。技术手段有限,复杂场景增加风险。\\n\\n---\\n\\n📊 搜索结果:\\n\\n1. 科学网—为什么说大语言模型解决不了机器幻觉问题? - 刘伟的博文\\n 🔗 https://blog.sciencenet.cn/blog-40841-1489770.html\\n 📄 首页\\n 新闻\\n 博客\\n 人才\\n 会议\\n 基金\\n 论文\\n 视频\\n 小柯机器人\\n 相册Album\\n 帮助Help\\n\\n 粉丝\\n 评论\\n @我\\n 提醒\\n\\n 我的博客\\n\\n# 为什么说大语言模型解决不了机器幻觉问题? 精选\\n\\n已有 8430 次阅读\\n2025-6-14 11:41\\n|个人分类:2025|系统分类:科研笔记\\n\\n大语言模型(LLM)的“机器幻觉”问题难以被完全解决,这也是难以工业化落地应用的原因之...\\n\\n2. LLM大模型之Hallucination幻觉 - 知乎专栏\\n 🔗 https://zhuanlan.zhihu.com/p/703034375\\n 📄 a.知识捷径,大模型会走捷径,而不是真正理解了问题,例如当问“加拿大首都”时,模型错误地回答“多伦多”,出现此错误的原因可能是训练数据中加拿大和多伦多的同现频率比较高,导致模型错误地捕获了有关加拿大首都的事实知识。\\n\\nb.知识回忆失败,就是有些知识虽然训练了,但没用上。\\n\\n长尾问题,长尾知识的特点是预训练数据相对稀有,所以当面对与此类长尾知识有关的问题时,大模型产生幻觉的风险很高,会试图生成与事实...\\n\\n3. 大模型还能产生幻觉?一文讲透大模型幻觉原理和解决方案 - 敏捷开发\\n 🔗 https://www.minjiekaifa.com/agilearticles/llm-hallucination-80500.mhtml\\n 📄 斯坦福大学和耶鲁大学的研究人员在关于三种流行的大语言模型(LLM)的研究预印本中发现,类似的错误在人工智能生成的法律输出里极为普遍。\\n\\n无论是哪种大模型,都会出现不同程度的“幻觉”。其症状的轻重,与科技公司的实力相关。\\n\\n一般来说, 大模型幻觉分为两大类:事实性幻觉和忠实性幻觉 。\\n\\n事实性幻觉强调生成的内容与可验证的现实世界事实之间的差异 。其通常表现为事实不一致或捏造。比如说回答历史事件的具...\", \"filters\": {\"topic\": \"general\"}, \"query\": \"大模型幻觉技术原因 训练数据 模型架构 注意力机制\", \"results\": [{\"index\": 1, \"title\": \"科学网—为什么说大语言模型解决不了机器幻觉问题? - 刘伟的博文\", \"url\": \"https://blog.sciencenet.cn/blog-40841-1489770.html\", \"content\": \"首页\\n 新闻\\n 博客\\n 人才\\n 会议\\n 基金\\n 论文\\n 视频\\n 小柯机器人\\n 相册Album\\n 帮助Help\\n\\n 粉丝\\n 评论\\n @我\\n 提醒\\n\\n 我的博客\\n\\n# 为什么说大语言模型解决不了机器幻觉问题? 精选\\n\\n已有 8430 次阅读\\n2025-6-14 11:41\\n|个人分类:2025|系统分类:科研笔记\\n\\n大语言模型(LLM)的“机器幻觉”问题难以被完全解决,这也是难以工业化落地应用的原因之一,主要源于其内在的技术局限性和生成机制。以下是具体原因:\\n\\n1. 模型架构的局限性\\n\\n大语言模型基于Transformer架构,其注意力机制虽然能够聚焦于输入中的相关部分,但在处理长文本时,固定的注意力窗口会导致较早的内容被“丢弃”,从而增加生成不相关内容或幻觉的可能性。语言模型以逐个Token的方式生成输出,每个Token仅依赖于之前生成的Token,且无法对之前的输出进行修改。这种设计限制了模型的实时纠错能力,使得初始错误可能进一步扩大。\\n\\n2. 基于概率的生成方式 [...] 尽管有一些技术手段可以缓解幻觉问题,例如优化解码策略、引入检索增强生成、设计事实核心采样算法等,但这些方法只能降低幻觉的风险,而无法完全消除。综上所述,大语言模型的“机器幻觉”问题源于其内在的技术架构、生成机制和训练数据的局限性,这些因素共同导致了幻觉的产生。虽然可以通过技术手段缓解幻觉,但完全消除幻觉目前仍是一个难以实现的目标。\\n\\n人类的概念与机器产生的概念 [...] 大语言模型通过统计训练数据中的词汇和短语出现频率来生成内容,当遇到全新的情境或数据中未充分覆盖的问题时,模型可能会基于概率生成看似合理但缺乏真实依据的内容。模型可能无法真正理解上下文,而是通过模式匹配生成内容。这导致其在面对模糊或不明确的输入时,容易“填补空白”,从而产生推测性和错误的内容。\\n\\n3. 训练数据的缺陷\\n\\n训练数据中可能包含错误信息、过时知识或文化偏见,这些都会被模型学习并内化为知识,从而导致生成错误或误导性的内容。训练数据可能无法涵盖所有可能的情境,导致模型在面对未见过的问题时,只能通过概率推测生成内容。\\n\\n4. 模型的过度自信\\n\\n大语言模型在生成内容时往往表现出较高的自信,即使生成的内容是错误的。这种过度自信使得模型难以自我检测和纠正错误。\\n\\n5. 幻觉的随机性和不可预测性\\n\\n幻觉现象具有随机性和不可预测性,这使得完全消除幻觉变得非常困难。即使通过技术手段可以缓解幻觉,也无法完全避免其出现。\\n\\n6. 多模态场景下的挑战\\n\\n在多模态应用中,如文生图任务,大语言模型可能会出现跨模态不一致的问题,进一步增加了幻觉的可能性。\\n\\n7. 技术手段的局限性\", \"score\": 0.80126834, \"published_date\": \"\"}, {\"index\": 2, \"title\": \"LLM大模型之Hallucination幻觉 - 知乎专栏\", \"url\": \"https://zhuanlan.zhihu.com/p/703034375\", \"content\": \"a.知识捷径,大模型会走捷径,而不是真正理解了问题,例如当问“加拿大首都”时,模型错误地回答“多伦多”,出现此错误的原因可能是训练数据中加拿大和多伦多的同现频率比较高,导致模型错误地捕获了有关加拿大首都的事实知识。\\n\\nb.知识回忆失败,就是有些知识虽然训练了,但没用上。\\n\\n长尾问题,长尾知识的特点是预训练数据相对稀有,所以当面对与此类长尾知识有关的问题时,大模型产生幻觉的风险很高,会试图生成与事实不准确的回答。\\n\\n复杂场景,例如大模型承认珠穆朗玛峰是世界最高峰,但他们无法确定如果珠穆朗玛峰海拔降低500米,哪座山将成为最高峰。但是他们也训练了这些数据\\n\\n2.训练带来的幻觉:\\n\\na.预训练产生的幻觉\\n\\n单向建模不足,Transformer decoder-only架构,因为是从左到右的单向建模,虽然有利于高效训练但阻碍了其捕获复杂的上下文依赖关系的能力。\\n\\n注意力缺陷,随着序列长度的增加,注意力在不同位置上被稀释。 [...] 暴露偏差现(Exposure Bias)[不知道这样翻译对不对哈哈 ],在训练期间,大模型通常采用最大似然估计 (MLE) 训练策略,其中提供真实token作为输入计算损失。 然而在推理过程中,模型依赖于自己生成的token来进行后续预测,这种不一致可能会导致幻觉。\\n\\nb.对齐产生的幻觉\\n\\n能力错位,大模型预训练后的知识与标注用于SFT的数据之间存在不一致,当SFT的数据超出这些预训练的能力边界时,大模型会被训练来生成超出其自身知识边界的内容,从而放大产生幻觉的风险。\\n\\n信念错位,通过 RLHF 训练的模型会表现出明显的迎合用户意见的行为,但这往往会以牺牲真实性为代价。\\n\\n3.推理带来的幻觉\\n\\na.随机采样带来的缺陷,解码策略的随机性带来的多样性有代价,因为它与幻觉风险的增加呈正相关。\\n\\nb.解码表示的缺陷,在解码阶段,大语言模型使用其最后一层表示来预测下一个词符。 然而最后一层表示也有其局限性,主要有两方面:\\n\\n上下文注意力不足,语言模型通常在其注意力机制中表现出局部焦点,优先考虑附近的词导致上下文注意力不足。 [...] c.逻辑不一致:是指大模型输出表现出内部逻辑矛盾,通常在推理任务中可以看到。\\n\\n幻觉的原因,该篇综述也是分的比较细致。\\n\\n1.数据带来的幻觉:\\n\\na.数据源有缺陷\\n\\n错误信息,例如“托马斯·爱迪生发明了灯泡”这一说法实际上是一种误解,但随着时间的推移,人们普遍相信了这种误解, 用这种不正确的事实数据训练的大模型可能会导致误导性的输出。\\n\\n重复偏见,例如当用户请求“列出一些红色水果,不包括苹果”时,如果训练数据集中频繁重复出现“红苹果、西瓜、樱桃和草莓”等语句会导致模型在其输出中产生过度记忆的语句。\\n\\n社会偏见,例如大模型可能会将护理职业与女性联系起来,即使在用户提供的上下文中没有明确提及性别。\\n\\nb.存在知识边界\\n\\n缺乏领域知识,例如当问通用的大模型一些专业领域的问题,比如医学,法律等引发的幻觉会更明显。\\n\\n过时的事实知识,因为一旦大模型被训练之后,它们的内部知识就永远不会更新。\\n\\n2.数据利用率低,当大模型难以有效地利用其广泛的知识时,可能会出现幻觉\", \"score\": 0.7880784, \"published_date\": \"\"}, {\"index\": 3, \"title\": \"大模型还能产生幻觉?一文讲透大模型幻觉原理和解决方案 - 敏捷开发\", \"url\": \"https://www.minjiekaifa.com/agilearticles/llm-hallucination-80500.mhtml\", \"content\": \"斯坦福大学和耶鲁大学的研究人员在关于三种流行的大语言模型(LLM)的研究预印本中发现,类似的错误在人工智能生成的法律输出里极为普遍。\\n\\n无论是哪种大模型,都会出现不同程度的“幻觉”。其症状的轻重,与科技公司的实力相关。\\n\\n一般来说, 大模型幻觉分为两大类:事实性幻觉和忠实性幻觉 。\\n\\n事实性幻觉强调生成的内容与可验证的现实世界事实之间的差异 。其通常表现为事实不一致或捏造。比如说回答历史事件的具体时间或人物关系时出现错误。\\n\\n忠实幻觉是指生成内容与用户构思或输入所提供上下文的差异,以及生成内容内部的自我一致性 。例如要求总结某一篇文章的主要内容,但模型生成的总结包含了原文中没有提到的观点或信息。\\n\\n## 大模型幻觉从何而来?\\n\\nOpenAI华人科学家翁荔,在她最新的Blog中提到: 产生幻觉的原因包括预训练数据问题和微调新知识问题 。\\n\\n 预训练数据问题:使用的这些数据通常是从公共互联网抓取来的,可能存在数据太陈旧、某些关键部分缺失或者本身就是错误的。导致模型在学习这些数据时,记错了信息。\\n 微调:大模型引入新知识时,但模型学习新知识较慢,导致更容易产生幻觉。 [...] ## 大模型幻觉会停止吗?\\n\\n不会 。在《 hallucination is inevitable: an innate limitation of large language models 》实验论文中,给出了一个基本结果: 即无论模型架构、学习算法、提示技术或训练数据如何改变,对于任何可计算的LLM来说,幻觉是不可避免的 。\\n\\n亚利桑那州立大学研究人工智能的教授 Subbarao Kambhampati,对此也说道:“所有计算机生成的创造力在某种程度上都是幻觉。”\\n\\n此外许多机器学习专家也不认为幻觉是可以修复的。比如微软研究院和佐治亚理工学院发表的《 Calibrated Language Models Must Hallucinate 》研究表示:经过校准的语言模型必然会出现幻觉。\\n\\n所以从技术层面来说,由于现实世界问题的多样复杂性,无论如何训练大模型,总会存在超出模型能力的可解决问题。\\n\\n## 如何应对“幻觉”?\\n\\n“幻觉”虽不会停止,但我们可以尽可能地减轻幻觉。\", \"score\": 0.68344116, \"published_date\": \"\"}], \"total_results\": 3}", "timestamp": "2025-10-24T21:20:57.435719", "tool_call_id": "web_search:1", "name": "web_search" }, { "role": "assistant", "content": "基于搜索结果,我来为你详细解释大模型产生幻觉的原因:\n\n## 什么是大模型幻觉?\n\n大模型幻觉指的是AI模型生成**看似合理但实际错误、虚构或误导性**的信息。就像那个爱吹牛的熟人,一本正经地胡说八道。\n\n## 幻觉的主要类型\n\n1. **事实性幻觉**:生成的内容与可验证的现实世界事实不符\n - 比如错误地说\"加拿大首都是多伦多\"\n\n2. **忠实性幻觉**:生成内容与用户输入或上下文不一致\n - 比如总结文章时加入原文没有的观点\n\n## 产生幻觉的根本原因\n\n### 1. 技术架构局限 🏗️\n- **Transformer架构限制**:注意力机制在处理长文本时,早期内容会被\"丢弃\"\n- **单向生成模式**:只能从左到右逐个生成,无法回头修改错误\n- **概率生成机制**:基于统计概率而非真实理解\n\n### 2. 训练数据问题 📊\n- **数据质量差**:互联网数据包含错误、过时、矛盾的信息\n- **知识边界**:训练数据无法覆盖所有可能情况\n- **长尾问题**:稀有知识在训练数据中不足\n- **偏见和重复**:社会偏见、重复信息被模型学习\n\n### 3. 模型学习缺陷 🧠\n- **知识捷径**:走统计捷径而非真正理解\n - 比如\"加拿大+多伦多\"同现频率高,就错误关联\n- **知识回忆失败**:学过但用不上\n- **过度自信**:即使不确定也会给出肯定答案\n\n### 4. 推理过程问题 🔍\n- **随机采样**:为了增加多样性而引入的随机性\n- **上下文注意力不足**:注意力机制偏向局部信息\n- **逻辑不一致**:内部逻辑自相矛盾\n\n## 为什么幻觉无法完全消除?\n\n研究表明,**幻觉是大模型的固有特性**,原因包括:\n\n1. **计算理论限制**:任何可计算的LLM都必然会产生幻觉\n2. **现实复杂性**:世界太复杂,模型无法覆盖所有情况\n3. **创造性需求**:一定程度的\"幻觉\"是AI创造性的体现\n\n## 如何减轻幻觉?\n\n虽然无法根除,但可以缓解:\n- 优化训练数据质量\n- 改进模型架构和训练方法\n- 引入外部知识验证\n- 使用检索增强生成(RAG)\n- 增加人类反馈(RLHF)\n\n正如专家所说:\"所有计算机生成的创造力在某种程度上都是幻觉。\" 关键在于如何在创造性和准确性之间找到平衡。", "timestamp": "2025-10-24T21:21:11.109192" } ], "metadata": { "project_path": "/Users/jojo/Desktop/agents/正在修复中/agent_kimi_源码备份_标记有bug版本/project", "thinking_mode": true, "total_messages": 8, "total_tools": 4, "status": "active", "project_relative_path": null }, "token_statistics": { "total_input_tokens": 49586, "total_output_tokens": 1154, "updated_at": "2025-10-24T21:26:56.504193" } }