当前位置: 首页 > ops >正文

从 Word2Vec 到 BERT:AI 不止是词向量,更是语言理解

一、前言

在上篇文章中,我们介绍了Word2Vec以及它的作用,总的来说:

  • Word2Vec是我们理解NLP的第一站

  • Word2Vec将词变成了“向量”—— 终于可以用机器理解词语的相似度

  • 我们获得了例如“国王 - 男人 + 女人 ≈ 女王” 的类比能力

  • 我们可以将Word2Vec这种算法能力,应用到各种创新场景,例如基于Graph的推荐系统,后续如果小伙伴有需要,可以一起深入交流。

但同时也指出了它的不足:

  • 一个词=一个固定向量(静态词向量)

  • 上下文无感知:“苹果”无论是手机还是水果,向量相同

  • 是词的映射,不是对语言的理解

那如果让我们来设计下一代的算法,什么最重要?

——我们需要“能读懂句子”的模型。

接下来我们一步步实现,直至引出bert。

 二、Word2Vec是怎么工作的?

在上文,我们介绍到Word2Vec使用周围词预测中间词来获取词向量能力,这个被称为CBOW,同理也可以用中间词预测周围词,这个称为Skip-Gram。本质来讲,Word2Vec是一个浅层神经网络,结构如下:


from torch import nn
class Word2VecModel(nn.Module):def __init__(self, vocab_size,
http://www.xdnf.cn/news/7241.html

相关文章:

  • 带你搞懂@Valid和@Validated的区别
  • 【Go】从0开始学习Go
  • 【成品设计】基于Arduino的自动化农业灌溉系统
  • 基于DeepSeek的智能客服系统实践与创新
  • 【硬核数学】2. AI如何“学习”?微积分揭秘模型优化的奥秘《从零构建机器学习、深度学习到LLM的数学认知》
  • Java线程:多任务进行
  • 鸿蒙 Location Kit(位置服务)
  • 蓝桥杯1447 砝码称重
  • Flink 快速入门
  • 【LeetCode】大厂面试算法真题回忆(93)--优雅数组
  • 几种数据加密方法
  • 践行“科学智能”!和鲸打造 AI for Science 专属应用
  • docker安装Prometheus+Grafana
  • python如何遍历postgresql所有的用户表
  • OpenHarmony外设驱动使用 (五),Fingerprint_auth
  • ubuntu22.04 卸载ESP-IDF
  • AIGC与数字金融:人工智能金融创新的新纪元
  • [Java][Leetcode middle] 151. 反转字符串中的单词
  • Dify-3:系统架构
  • 国产 iPaaS 与国外 iPaaS 产品相比如何?以谷云科技为例
  • HTML向四周扩散背景
  • Linux-进程间通信
  • Redis有哪些常用应用场景?
  • Kubernetes MCP服务器(K8s MCP):如何使用?
  • upload-labs通关笔记-第12关 文件上传之白名单GET法
  • 【Unity 2023 新版InputSystem系统】新版InputSystem 如何进行人物移动(包括配置、代码详细实现过程)
  • 【软考-架构】15、软件架构的演化和维护
  • 第2篇 水滴穿透:IGBT模块的绝对防御体系
  • NIFI 2.40简介及部署
  • python实现pdf转图片(针对每一页)