见多识广10:大模型的一些基础概念
目录
- 前言
- 大模型基础概念
- LLM
- AGI
- AIGC
- 多模态模型
- 大模型的涌现
- 对齐
- 大模型的幻觉
- 幻觉的类型
- 幻觉的成因
- 缓解幻觉的方法
- 世界模型
- 核心理念
- 世界模型的关键组件
- 应用场景
- Scaling Law
- 具身智能
前言
来自知乎:https://www.zhihu.com/tardis/zm/art/1898067876017055575?source_id=1005
以及大模型的输出。
我仍然主要是做笔记。
大模型基础概念
LLM
用大量文本训练的语言模型,一般参数规模很大,能进行多种语言任务(如对话,回答问题,文本创作等等)。
AGI
Artificial General Intelligence——通用人工智能。就是像人一样能学习、处理各种问题的高级人工智能。
AIGC
人工智能生成内容。利用AI技术生成文本、图像、视频你等内容。如使用AI写小说、进行定制化的图像制作。
多模态模型
能同时处理文本、图像、语音等多种数据类型的模型。
大模型的涌现
当模型规模(如参数数量、训练数据量、计算资源)超过一个临界点之后,大模型的性能产生了质的飞跃,表现出在小规模模型中没有出现过的能力。(不过也有观点认为模型性能的提升是连续可预测的,只是在特定指标下表现为突然跃升)
对齐
指大模型的一些道德伦理观念和人对齐。比如哪些事情是好的,哪些事情是坏的,不能做。如此确保大模型的行为、输出和决策与人类的目标、价值观、伦理原则以及社会规范保持一致的过程。
大模型的幻觉
指大模型会生成一些看起来挺有道理、实际上完全错误的内容。它还自以为很对。比如,你问它某个领域有什么重要的论文,它会给你生成几个从来没出现的论文的链接,然后煞有介事地为你简要介绍这几篇论文。
GPT给的一个例子:例如,用户询问“秦始皇为什么喜欢用苹果手机”,模型可能会给出详细的解释,尽管秦始皇生活在没有智能手机的时代,这种现象被形象地称为“一本正经地胡说八道” 。
幻觉的类型
事实性幻觉:模型生成的内容与现实世界的知识或事实不一致。
上下文内幻觉(Intrinsic Hallucination):生成的内容与提供的上下文信息不一致或自相矛盾。
外在幻觉(Extrinsic Hallucination):模型生成的内容在上下文中未被提及,且无法通过外部知识验证其真实性 。
幻觉的成因
训练数据不足或质量问题:模型可能在缺乏足够高质量数据的情况下进行训练,导致生成不准确的信息。
模型的泛化能力:为了生成连贯的文本,模型可能会“猜测”或“编造”信息。
缺乏事实验证机制:当前的大模型通常不具备实时验证其输出内容真实性的能力。
缓解幻觉的方法
引入外部知识库:结合检索增强生成(RAG)技术,使模型能够访问和引用可靠的外部信息源。
人类反馈强化学习(RLHF):通过人类反馈优化模型的输出,使其更符合人类的期望和事实。
世界模型
简要理解是:智能体心中有一个世界,它根据这个世界作出决策。
GPT给出的:指的是智能体(agent)在内部构建的关于其所处环境的表征和动态预测模型。这种模型使得AI系统能够理解环境的结构、预测未来的状态,并据此进行推理和决策。它不仅仅是对环境的静态描述,更是对环境变化的动态模拟。
核心理念
智能体就像一个人一样,理解世界,预测未来,规划决策。
世界模型的关键组件
感知模块、动态建模、奖励预测、策略生成。
应用场景
机器人控制、自动驾驶、游戏AI、增强现实与虚拟现实(构建与现实世界一致的虚拟环境,提升用户体验)。
Scaling Law
大模型的性能会随着训练数据、模型参数、训练计算量的增加而越来越强。
具身智能
具有身体的人工智能。
强调智能体的智能行为是其身体、感知系统和环境之间紧密耦合的结果。
GPT给的解释:“具身智能”(Embodied Intelligence,简称EI)是一种强调智能体(如机器人或虚拟代理)通过其物理或模拟的身体与环境进行感知、学习和互动,从而实现智能行为的人工智能范式。这一理念认为,智能不仅源于大脑或算法,还深受身体结构和与环境交互的影响。