当前位置: 首页 > java >正文

AI大模型和人脑的区别

为什么人脑没有幻觉,但是 AI 大语言模型有幻觉?

人脑和大型语言模型(LLM)在处理信息的方式上存在根本差异,这导致了幻觉现象主要出现在LLM中。LLM的幻觉是指模型生成了貌似合理但实际上错误或虚构的内容。

LLM的工作原理:

1.LLM如Transformer架构​是一种由人工“神经元”组成的层级网络:输入的文本被切分为标记(token)序列,每个token先映射为向量表示(词嵌入)输入模型​。模型内部包含多个Transformer块层叠,每一层通过多头自注意力机制来处理输入序列​。注意力机制使模型在生成每个输出时,都能选取并“关注”输入中最相关的部分

2.模型在训练时被输入海量的互联网文本语料进行自监督学习​。训练目标是让模型预测下一个词的概率分布。通过不断调节内部权重来最大化训练语料中实际出现词的概率,模型逐渐学习到语言中的统计模式和词语搭配关系​。这种基于最大似然的训练使模型能够掌握语法、语义以及常识性模式,但并非显式地存储事实知识,而是将这些模式隐含在巨量参数的权重中

3.在生成文本时,模型读取当前上下文并计算下一候选词的概率分布,然后按照某种策略选择一个词作为输出。通常模型会选取最高概率的词或按概率采样一个词作为输出,再将该词添加到上下文,反复迭代这个过程,从而逐词生成整段文本

4.它在生成时并不查询外部知识库,也没有一个显式的知识图谱可供检索。一旦提示中不包含足够信息,模型只能凭参数中模糊的相关性给出答案。LLM不会从外部环境主动获取新信息,也缺乏视觉、触觉等其它感官反馈。因此,模型对世界的“认识”完全停留在训练语料中学到的统计相关性上,缺乏实时感官校验机制

人脑的工作方式:

1.人脑含有约860亿个神经元,通过数万亿个突触彼此连接,形成庞大的网络​。不同脑区在功能上各有分工,例如视觉处理主要在枕叶视觉皮层,听觉在颞叶听觉皮层,语言和决策涉及额叶等,各脑区之间通过神经网络协同工作,构建层次化、关联性的概念表示,从而实现整体认知。

2.每个神经元通过树突接收信号,经由轴突将电信号传递给下一个神经元的树突或细胞体,突触则是它们连接的信息交换点。突触可塑性是大脑学习和记忆的关键机制:当某些神经连接反复激活时,突触传递效率会增强(或减弱),这便记录下新的记忆或知识​。

3.我们通过视觉、听觉、触觉等多感官获取信息,并能相互印证以纠正错误认知。大脑内部也存在预测校验机制:根据预测式编码理论,大脑会不断对感官输入进行预测,并将实际输入与预测进行比较来产生误差信号

http://www.xdnf.cn/news/1529.html

相关文章:

  • VAE-LSTM异常检测模型复刻报告
  • 前端笔记-Vue router
  • 自主可控鸿道Intewell工业实时操作系统
  • 量子跃迁:Vue组件安全工程的基因重组与生态免疫(完全体)
  • Spring AI - Redis缓存对话
  • 第五章:5.3 ESP32物联网应用:阿里云IoT平台与腾讯云IoT平台的数据上传与远程控制
  • 阻塞式队列
  • 非关系型数据库 八股文 Redis相关 缓存雪崩 击穿 穿透
  • Vite/Rollup 模块热更新
  • Springboot整合Redis主从
  • Java基础系列-HashMap源码解析2-AVL树
  • Java内存模型之JMM
  • NEUOJ网格路径
  • 本地服务器 Odoo 安装指南,并实现公网访问
  • MySQL基础增删改
  • LeetCode-47. 全排列 II
  • 杰理ac792开发板按键不起效果
  • ElasticSearch:高并发场景下如何保证读写一致性?
  • 搭建TypeScript单元测试环境
  • 高性能全闪存储在大模型训练与推理中的效率提升作用
  • HTTP 请求头的 key 不区分大小写。
  • 接口测试和功能测试详解
  • 【AI】Windows环境安装SPAR3D单图三维重建心得
  • 玩转Docker | 使用Docker部署Neko自托管浏览器
  • Chronos - 时间序列预测语言模型
  • SwiftUI 1.Text介绍和使用
  • Elasticsearch 报错 Limit of total fields [1000] has been exceeded
  • SwiftUI 3.Button介绍和使用
  • Python爬虫学习:高校数据爬取与可视化
  • UIAutomator 与 Playwright 在 AI 自动化中的界面修改对比