当前位置: 首页 > web >正文

Flink Table API 编程入门实践


Flink Table API 编程入门实践

前言

Apache Flink 是目前大数据实时计算领域的明星产品,Flink Table API 则为开发者提供了声明式、类似 SQL 的数据处理能力,兼具 SQL 的易用性与编程 API 的灵活性。本文将带你快速了解 Flink Table API 的基本用法,并通过代码示例帮助你快速上手。


一、环境准备

在 Flink 中,所有 Table API 操作都需要基于 TableEnvironment。对于流处理场景,我们一般这样创建环境:

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
EnvironmentSettings settings = EnvironmentSettings.newInstance().inStreamingMode().build();
StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env, settings);

二、数据源定义

Table API 支持多种数据源。最常见的两种方式为:

1. 从 DataStream 创建 Table

DataStream<MyPojo> dataStream = env.fromElements(new MyPojo("Alice", 12),new MyPojo("Bob", 10)
);
Table table = tableEnv.fromDataStream(dataStream);

2. 从外部系统注册 Table

比如从 Kafka 注册一张表:

tableEnv.executeSql("CREATE TABLE user_orders (" +" user_id STRING, " +" order_amount DOUBLE " +") WITH (" +" 'connector' = 'kafka', " +" 'topic' = 'orders', " +" 'properties.bootstrap.servers' = 'localhost:9092', " +" 'format' = 'json'" +")"
);

三、Table API 常见操作

Table API 提供了丰富的数据处理能力,如筛选、聚合、分组、连接等。例如:

import static org.apache.flink.table.api.Expressions.$;// 筛选和选择字段
Table result = table.filter($("age").isGreater(10)).select($("name"), $("age"));// 分组聚合
Table agg = table.groupBy($("name")).select($("name"), $("age").avg().as("avg_age"));

四、结果输出

将 Table 转换为 DataStream,方便后续处理或输出:

DataStream<Row> resultStream = tableEnv.toDataStream(result);
resultStream.print();

五、与 SQL API 结合

Table API 与 SQL API 可以无缝结合。例如:

Table sqlResult = tableEnv.sqlQuery("SELECT name, AVG(age) as avg_age FROM my_table GROUP BY name"
);

六、完整示例

下面是一个完整的 Flink Table API 示例,演示数据流到 Table 的转换、聚合与结果输出:

import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.*;
import org.apache.flink.table.api.bridge.java.StreamTableEnvironment;
import org.apache.flink.types.Row;import static org.apache.flink.table.api.Expressions.$;public class TableApiDemo {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);// 创建数据流DataStream<MyPojo> dataStream = env.fromElements(new MyPojo("Alice", 12),new MyPojo("Bob", 10),new MyPojo("Alice", 15));// 转换为 TableTable table = tableEnv.fromDataStream(dataStream);// Table API 查询Table result = table.groupBy($("name")).select($("name"), $("age").avg().as("avg_age"));// 输出结果DataStream<Row> resultStream = tableEnv.toDataStream(result);resultStream.print();env.execute();}public static class MyPojo {public String name;public Integer age;public MyPojo() {}public MyPojo(String name, Integer age) {this.name = name;this.age = age;}}
}

七、常见问题与建议

  • 字段名区分大小写,需与数据结构一致。
  • Table API 与 SQL API 可混用,灵活应对不同场景。
  • 生产环境推荐结合 Catalog 管理元数据。
  • Flink 1.14 以后批流统一,建议优先采用流模式开发。

结语

Flink Table API 极大地提升了大数据实时处理的开发效率,结合 SQL 的易用性和 API 的灵活性,非常适合复杂业务场景的数据处理。希望本文能帮你快速入门 Flink Table API,后续还可以深入了解窗口聚合、UDF、自定义 Connector 等高级特性。

如果你在学习和实践中遇到问题,欢迎留言交流!

http://www.xdnf.cn/news/9380.html

相关文章:

  • 使用子查询在 SQL Server 中进行数据操作
  • 触觉智能RK3506星闪开发板规格书 型号IDO-EVB3506-V1
  • 如何在sublime text中批量为每一行开头或者结尾添加删除指定内容
  • 计算机系统结构-第4章-数据级并行
  • 五大要素协同效益的量化模型与实战策略
  • 企业宣传网站系统项目
  • Unity3D仿星露谷物语开发54之退出菜单及创建可执行文件
  • 视频监控联网系统GB28181协议中历史视音频的回放流程详解以及查询失败常见原因
  • Python PyMySQL
  • 为什么共现矩阵是高维稀疏的
  • 【笔记】解决ImportError: cannot import name ‘interp‘ from ‘scipy‘报错
  • Jenkins实践(7):Publish over SSH功能
  • 大模型的多显卡训练实现涉及分布式计算框架。实现方式附代码
  • 二叉树part03(二)
  • 计算机组成原理——指令格式
  • Silvaco TCAD 2020 Windows版本安装教程
  • 60、【OS】【Nuttx】编码规范解读(八)
  • 8天Python从入门到精通【itheima】-49~50
  • SOC-ESP32S3部分​​​​​​​:15-PWM脉冲宽度调制
  • 使用 curl 进行 HTTP 请求:详尽指南
  • MATLAB绘制滤波器系数特性图
  • vue+threeJs 创建多色几何体+加载obj模型+跳转ojb模型中心
  • WPF【10_1】数据库与WPF实战
  • Blaster - Multiplayer P107-PXXX: 弹药
  • 四、web安全-行业术语
  • C++11 -- 右值引用和移动语义
  • 注意力机制模块代码
  • Oracle 12c新增的数字转换验证VALIDATE_CONVERSION函数
  • rabbitmq的高级特性
  • 理解 Kubernetes 的架构与控制平面组件运行机制