Flink state 序列化Java enum 竟然岔劈了

开发 前端
本文主要介绍 flink 枚举值 serde 中的坑,当在 enum 中添加删除枚举值时,就有可能导致状态岔劈。随后给出了原因是由于 enum serde 器的实现导致的这种情况,最后给出了解决方案。

[[419876]]

1.序篇-先说结论

本文主要记录博主在生产环境中踩的 flink 针对 java enum serde 时的坑。

结论:在 flink 程序中,如果状态中有存储 java enum,那么添加或者删除 enum 中的一个枚举值时,就有可能导致状态恢复异常,这里的异常可能不是在恢复过程中会实际抛出一个异常,而是有可能是 enum A 的值恢复给 enum B。

我从以下几个章节说明、解决这个问题,希望能抛砖引玉,带给大家一些启发。

  • 踩坑场景篇-这个坑是啥样的
  • 问题排查篇-坑的排查过程
  • 问题原理解析篇-导致问题的机制是什么
  • 避坑篇-如何避免这种问题
  • 总结篇

2.踩坑场景篇-这个坑是啥样的

对任务做一个简单的过滤条件修改,任务重新上线之后,从 flink web ui 确认是从 savepoint 重启成功了,但是实际最终产出的数据上来看却像是没有从 savepoint 重启。

逻辑就是计算分维度的当天累计 pv。代码很简单,在后面会贴出来。

如下图:

在 00:04 分重启时出现了当天累计 pv 出现了从零累计的情况。

但是预期正常的曲线应该张下面这样。

任务是使用 DataStream 编写(基于 flink 1.13.1)。

  1. public class SenerioTest { 
  2.      
  3.     public static void main(String[] args) throws Exception { 
  4.         StreamExecutionEnvironment env = 
  5.                 StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration()); 
  6.  
  7.         env.setParallelism(1); 
  8.  
  9.         env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime); 
  10.  
  11.         env.addSource(new SourceFunction<SourceModel>() { 
  12.  
  13.             private volatile boolean isCancel = false
  14.  
  15.             @Override 
  16.             public void run(SourceContext<SourceModel> ctx) throws Exception { 
  17.                 // 数据源 
  18.             } 
  19.  
  20.             @Override 
  21.             public void cancel() { 
  22.                 this.isCancel = true
  23.             } 
  24.         }) 
  25.         .keyBy(new KeySelector<SourceModel, Long>() { 
  26.             @Override 
  27.             public Long getKey(SourceModel value) throws Exception { 
  28.                 return value.getUserId() % 1000; 
  29.             } 
  30.         }) 
  31.         .timeWindow(Time.minutes(1)) 
  32.         .aggregate( 
  33.             new AggregateFunction<SourceModel, Map<Tuple2<DimNameEnum, String>, Long>, Map<Tuple2<DimNameEnum, String>, Long>>() { 
  34.  
  35.                 @Override 
  36.                 public Map<Tuple2<DimNameEnum, String>, Long> createAccumulator() { 
  37.                     return new HashMap<>(); 
  38.                 } 
  39.  
  40.                 @Override 
  41.                 public Map<Tuple2<DimNameEnum, String>, Long> add(SourceModel value, 
  42.                         Map<Tuple2<DimNameEnum, String>, Long> accumulator) { 
  43.  
  44.                     Lists.newArrayList(Tuple2.of(DimNameEnum.province, value.getProvince()) 
  45.                             , Tuple2.of(DimNameEnum.age, value.getAge()) 
  46.                             , Tuple2.of(DimNameEnum.sex, value.getSex())) 
  47.                             .forEach(t -> { 
  48.                                 Long l = accumulator.get(t); 
  49.  
  50.                                 if (null == l) { 
  51.                                     accumulator.put(t, 1L); 
  52.                                 } else { 
  53.                                     accumulator.put(t, l + 1); 
  54.                                 } 
  55.                             }); 
  56.  
  57.                     return accumulator; 
  58.                 } 
  59.  
  60.                 @Override 
  61.                 public Map<Tuple2<DimNameEnum, String>, Long> getResult( 
  62.                         Map<Tuple2<DimNameEnum, String>, Long> accumulator) { 
  63.                     return accumulator; 
  64.                 } 
  65.  
  66.                 @Override 
  67.                 public Map<Tuple2<DimNameEnum, String>, Long> merge( 
  68.                         Map<Tuple2<DimNameEnum, String>, Long> a, 
  69.                         Map<Tuple2<DimNameEnum, String>, Long> b) { 
  70.                     return null
  71.                 } 
  72.             }, 
  73.             new ProcessWindowFunction<Map<Tuple2<DimNameEnum, String>, Long>, SinkModel, Long, TimeWindow>() { 
  74.  
  75.                 private transient ValueState<Map<Tuple2<DimNameEnum, String>, Long>> todayPv; 
  76.  
  77.                 @Override 
  78.                 public void open(Configuration parameters) throws Exception { 
  79.                     super.open(parameters); 
  80.                     this.todayPv = getRuntimeContext().getState(new ValueStateDescriptor<Map<Tuple2<DimNameEnum, String>, Long>>( 
  81.                             "todayPv", TypeInformation.of
  82.                             new TypeHint<Map<Tuple2<DimNameEnum, String>, Long>>() { 
  83.                             }))); 
  84.                 } 
  85.  
  86.                 @Override 
  87.                 public void process(Long aLong, Context context, 
  88.                         Iterable<Map<Tuple2<DimNameEnum, String>, Long>> elements, Collector<SinkModel> out
  89.                         throws Exception { 
  90.                     // 将 elements 数据 merge 到 todayPv 中 
  91.                     // 每天零点将 state 清空重新累计 
  92.                     // 然后 out#collect 出去即可 
  93.                 } 
  94.             }); 
  95.  
  96.         env.execute(); 
  97.     } 
  98.  
  99.     @Data 
  100.     @Builder 
  101.     private static class SourceModel { 
  102.         private long userId; 
  103.         private String province; 
  104.         private String age; 
  105.         private String sex; 
  106.         private long timestamp
  107.     } 
  108.  
  109.  
  110.     @Data 
  111.     @Builder 
  112.     private static class SinkModel { 
  113.         private String dimName; 
  114.         private String dimValue; 
  115.         private long timestamp
  116.     } 
  117.  
  118.     enum DimNameEnum { 
  119.         province, 
  120.         age, 
  121.         sex, 
  122.         ; 
  123.     } 
  124.  

3.问题排查篇-坑的排查过程

3.1.愚蠢的怀疑引擎

首先怀疑是状态没有正常恢复。

但是查看 flink web ui 以及 tm 日志,都显示是从 savepoint 正常恢复了。

还怀疑是不是出现了 flink web ui 展示的内容和实际的执行不一致的情况。

但是发现任务的 ck 大小是正常的,复合预期的。

3.2.老老实实打 log 吧

既然能从 savepoint 正常恢复,那么就把状态值用 log 打出来看看到底发生了什么事情呗。

如下列代码,在 ProcessWindowFunction 中加上 log 日志。

  1. this.todayPv.value() 
  2.     .forEach(new BiConsumer<Tuple2<DimNameEnum, String>, Long>() { 
  3.         @Override 
  4.         public void accept(Tuple2<DimNameEnum, String> k, 
  5.                 Long v) { 
  6.             log.info("key 值:{},value 值:{}", k.toString(), v); 
  7.         } 
  8.     }); 

发现结果如下:

  1. ... 
  2. key 值:(uv_type,男),value 值:1000 
  3. ... 

发现状态中存储的 DimNameEnum.province,DimNameEnum.age 的数据都是正确的,但是缺缺少了 DimNameEnum.sex,多了 (uv_type,男) 这样的数据,于是查看代码,发现之前多加了一种枚举类型 DimNameEnum.uv_type。代码如下:

  1. enum DimNameEnum { 
  2.     province, 
  3.     age, 
  4.     uv_type, 
  5.     sex, 
  6.     ; 

于是怀疑 flink 针对枚举值的 serde 不是按照枚举值名称来进行匹配的,而是按照枚举值下标来进行匹配的。因此就出现了 DimNameEnum.uv_type 将 DimNameEnum.sex 的位置占了的情况。

4.问题原理解析篇-导致问题的机制是什么

来看看源码吧。

测试代码如下:

  1. public class EnumsStateTest { 
  2.  
  3.     public static void main(String[] args) throws Exception { 
  4.         StreamExecutionEnvironment env = 
  5.                 StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration()); 
  6.  
  7.         env.setParallelism(1); 
  8.  
  9.         env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime); 
  10.  
  11.         TypeInformation<StateTestEnums> t = TypeInformation.of(StateTestEnums.class); 
  12.  
  13.         EnumSerializer<StateTestEnums> e = (EnumSerializer<StateTestEnums>) t.createSerializer(env.getConfig()); 
  14.  
  15.         DataOutputSerializer d = new DataOutputSerializer(10000); 
  16.  
  17.         e.serialize(StateTestEnums.A, d); 
  18.  
  19.         env.execute(); 
  20.     } 
  21.  
  22.     enum StateTestEnums { 
  23.         A, 
  24.         B, 
  25.         C 
  26.         ; 
  27.     } 

debug 结果如下:

首先看看对应的 TypeInformation 和 TypeSerializer。

发现 enum 类型的序列化器是 EnumSerializer, 看看 EnumSerializer 的 serde 实现,如图所示:

最关键的两个变量:

  • 序列化时用 valueToOrdinal
  • 反序列化时用 values

从而印证了上面的说法。flink enum 序列化时使用的是枚举值下标进行 serde,因此一旦枚举值顺序发生改变,或者添加、删除一个枚举值,就会导致其他枚举值的下标出现错位的情况。从而导致数据错误。

5.避坑篇-如何避免这种问题

5.1.枚举解决

在上述场景中,如果又想要把新枚举值加进去,又需要状态能够正常恢复,正常产出数据。

那么可以把新的枚举值在尾部添加,比如下面这样。

  1. enum DimNameEnum { 
  2.     province, 
  3.     age, 
  4.     sex, 
  5.     uv_type, // 添加在尾部 
  6.     ; 

5.2.非枚举解决

还有一种方法如标题,就是别用枚举值,直接用 string 就 vans 了。

6.总结篇

本文主要介绍了 flink 枚举值 serde 中的坑,当在 enum 中添加删除枚举值时,就有可能导致状态岔劈。随后给出了原因是由于 enum serde 器的实现导致的这种情况,最后给出了解决方案。

本文转载自微信公众号「大数据羊说」,可以通过以下二维码关注。转载本文请联系大数据羊说公众号。

 

责任编辑:姜华 来源: 大数据羊说
相关推荐

2018-03-19 10:20:23

Java序列化反序列化

2022-08-06 08:41:18

序列化反序列化Hessian

2013-03-11 13:55:03

JavaJSON

2009-06-14 22:01:27

Java对象序列化反序列化

2011-06-01 15:05:02

序列化反序列化

2009-08-24 17:14:08

C#序列化

2011-03-04 09:25:51

Java序列化

2010-03-19 15:54:21

Java Socket

2011-05-18 15:20:13

XML

2009-08-06 11:16:25

C#序列化和反序列化

2023-12-13 13:49:52

Python序列化模块

2011-06-01 14:50:48

2019-11-20 10:07:23

web安全PHP序列化反序列化

2009-08-25 14:24:36

C#序列化和反序列化

2011-06-01 14:26:11

序列化

2009-03-10 13:38:01

Java序列化字节流

2016-09-21 00:15:27

2011-04-02 09:04:49

Java序列化

2016-01-05 15:10:59

2021-11-18 07:39:41

Json 序列化Vue
点赞
收藏

51CTO技术栈公众号