当前位置: 首页 > ds >正文

DataFrame 和 Dataset的对比理解

在 Spark 中,DataFrame 和 Dataset 是两种不同的数据结构,它们的关系需要从数据模型类型系统两个层面理解,而不是简单的 “行” 或 “列” 的包含关系。

一、核心定义与关系

  1. DataFrame = Dataset[Row]

    • DataFrameDataset的一个特例,其元素类型固定为Row(即Dataset[Row])。
    • Row代表一行数据(如数据库中的一条记录),因此DataFrame本质上是多行 Row 的集合,每行包含多个字段(列)。
  2. Dataset 的泛型本质

    • Dataset[T]是强类型的数据集,T可以是任意类型:
      • T=Row时,Dataset[Row]就是DataFrame
      • T=自定义类(如Person)时,Dataset[Person]是强类型的对象集合。

二、从数据模型看结构

以 “学生信息表” 为例:

姓名(name)年龄(age)成绩(scores)
Alice20[90, 85, 95]
Bob22[80, 82, 78]
  1. DataFrame 的结构

    • 每一行是一个Row对象,包含 3 个字段(列)。
    • 整个 DataFrame 是多行 Row 的集合,类似二维表格(行 × 列)。
  2. Dataset [Person] 的结构

    • 若定义case class Person(name: String, age: Int, scores: Seq[Int]),则每个元素是Person对象,包含 3 个属性(类似行的字段)。
    • 整个 Dataset 是多个 Person 对象的集合,每个对象内部封装了行数据。

三、为什么 DataFrame 被定义为 Dataset [Row]?

  1. 历史演进原因

    • Spark 早期版本先推出DataFrame(基于 Row 的无类型接口),后来引入Dataset(强类型接口)。
    • 为了兼容旧接口,DataFrame被定义为Dataset[Row]的别名,本质是对 Row 集合的封装。
  2. 类型系统的统一

    • Dataset是更通用的抽象:
      • DataFrame(无类型) = Dataset[Row](弱类型)。
      • 强类型Dataset[T] = 自定义类型的对象集合(如Dataset[Person])。

四、两者的核心区别

维度DataFrame(Dataset[Row])Dataset [T](强类型)
数据类型元素是Row(无类型,字段通过索引 / 名称访问)元素是自定义类型T(编译时类型安全)
类型检查运行时检查(如字段类型错误)编译时检查(IDE 提示类型错误)
API 风格接近 SQL(如df.select("name")接近 Scala 集合(如ds.filter(_.age > 20)
性能与 Dataset 相当(底层优化一致)部分场景因类型推导更高效

五、如何理解 “行” 与 “列” 的关系?

  1. DataFrame 中的 “行” 与 “列”

    • :每个Row对象代表一行数据(如 Alice 的信息)。
    • :每个Row中的字段(如 name、age)是列的定义,由 Schema 统一管理。
  2. DataFrame 与 Dataset 的包含关系

    • DataFrame 是 Dataset 的子集:所有 DataFrame 都是 Dataset,但 Dataset 不一定是 DataFrame(如Dataset[Person])。
    • 两者的区别在于元素类型:DataFrame 的元素是Row,而 Dataset 的元素可以是任意类型T

六、总结:一句话理清关系

  • DataFrame 是 “多行 Row 的集合”,每行包含多个字段(列),本质是Dataset的特例(Dataset[Row])。
  • Dataset 是更通用的抽象,可存储任意类型的对象(如 Row、自定义类),每个对象代表一行数据,对象的属性对应列。

七、实际开发中的选择

  • 使用 DataFrame

    • 处理动态 Schema 数据(如 JSON、CSV)。
    • 更习惯 SQL 风格的 API(如selectfilter)。
  • 使用强类型 Dataset [T]

    • 追求编译时类型安全。
    • 希望用面向对象方式操作数据(如ds.map(person => person.name))。

通过as[T]方法可灵活转换两者:

scala

val df: DataFrame = spark.read.csv("students.csv")
val ds: Dataset[Person] = df.as[Person]  // 转换为强类型Dataset
http://www.xdnf.cn/news/8764.html

相关文章:

  • 常见嵌入式软件架构
  • Spring Boot微服务架构(三):Spring Initializr创建CRM项目
  • 基于CodeBuddy实现本地网速的实时浏览小工具
  • 网络安全从零开始(二):细分技术方向深度解析
  • GM DC Monitor 系统监控对象SNMP配置指南
  • Linux中的前台(同步)运行 或 后台(异步)运行
  • java 代码查重(四)删除java文件中注释的方法后查重实现
  • 鼠标连点器 ,实现鼠标自动点击
  • DVWA通关笔记-靶场安装教程
  • SQL每日一题(5)
  • 阿斯利康医学代表在线测评笔试题库 | 3天备考、能力测评、性格测评历年真题 | 华东同舟求职讲求职
  • 分布式缓存:缓存设计中的 7 大经典问题_缓存失效、缓存穿透、缓存雪崩
  • RV1126+FFMPEG多路码流监控项目大体讲解
  • 【软件测试】第三章·软件测试基本方法(缺陷模式、模型、形式化测试方法)
  • 关键点翻转 数据增强踩坑
  • C++性能相关的部分内容
  • 数据类型与运算符
  • 6.3.1图的广度优先遍历
  • 第一课:医学影像研究的科学思维与问题提出
  • js实现音频的录制
  • Vue 样式不一致问题全面分析与解决方案
  • 专业学习|经济学与管理学常用分析工具详解
  • 【人工智能】微调秘籍:解锁AI大模型的定制化魔法
  • python装饰器的简单理解
  • (2)-玩转Fiddler抓包-再识Fiddler
  • 天地图实景三维数据分享(江苏)
  • 【iOS】内存分区
  • 第2周 PINN核心技术揭秘: 如何用神经网络求解偏微分方程
  • 消息中间件之kafka
  • WSL 下面 Buildroot + QEMU 环境记录一下