一个 bug 竟然是 Protobuf 的 feature

开发 前端
既然知道 protobuf 会这么操作,那我们就只要知道 protobuf 怎么分割就行了。这个方法还真不好找,因为像我们这样使用的人太少了。中文搜索完全搜不到这一块的内容,可能大家都不会使用protobuf来存储数据吧,大家使用的方式应该都是多个服务中进行交互的场景吧。

大家好,我是了不起。

最近我们在项目中,通过使用 protobuf 格式作为存储数据的一个载体。一个不小心就给自己埋了个大坑,还是过了好久才发现。

protobuf 简介

protobuf 全名叫 Protocal buffers. 它是由 Google 研发的,一种可跨语言、可跨平台、可扩展的序列化数据的机制。类似于 XML ,但是它更小、更快、更简单。你只需要定义一次你希望的数据如何被结构化,然后你可以使用它的生成工具,生成包含一些序列化和反序列化等操作的源代码。可以轻松地从各种数据流和使用各种编程语言写入和读取结构化的数据。

proto2版本支持在Java、Python、Objective-C和C++中生成代码。使用新的proto3语言版本,你还可以使用Kotlin、Dart、Go、Ruby、PHP和C#,还有更多的语言。

怎么发现的?

在我们的新项目中,我们通过使用 protobuf 格式来存储项目运行的数据。这样我们在调试过程中,可能根据现场录制的数据进行本地的调试。

message ImageData {
// ms
int64 timestamp = 1;
int32 id = 2;
Data mat = 3;
}

message PointCloud {
// ms
int64 timestamp = 1;
int32 id = 2;
PointData pointcloud = 3;
}

message State {
// ms
int64 timestamp = 1;
string direction = 2;
}

message Sensor {
repeated PointCloud point_data = 1;
repeated ImageData image_data = 2;
repeated State vehicle_data = 3;
}

我们定义了这样一组数据, 然后存储的时候,因为Sensor 这3个数据源的帧率不一样,因此存储的时候,单个 Sensor 中其实只包含了一组数据,另外两个类型的数据并没有包含进去。

当我们只录制单个 pack 的时候,我们并没有遇到问题。直到我们觉得单个包,不能长时间录制,我们需要找一种解决方法来分割包 。

当时觉得这个一定是很简单的,我们就设定了一个包达到 500M 的时候,我们就让后面的数据存到新的包中。很顺利的写完,然后放到现场进行数据录制。录制一段时间之后,我们把包拿回来进行模拟测试我们的新程序。发现有些包的数据解析出来是有问题的。程序运行到一半会卡在那里不动。经过多次测试,发现是部分包有这个问题。

我们一开始怀疑的是,判断文件大小的方式不对,影响到了分包。因为判断文件大小的时候,会去打开文件。但是经过好几种其他的不打开文件的方式判断,从而进行分割。还是遇到了部分录制的包有问题。

这时我才怀疑到 protobuf 对存储数据会有一些特殊的要求。后来看了一些文章,了解到 protobuf 存储多组数据到一个文件需要有标志符。要不然后面从文件解析回来的时候,protobuf 因为不知道单个数据的停止符在哪里,导致数据解析出错。

到这里,这个坑出现了。我们存储了一系列的数据到单个包中,没有做任何分隔符的操作。protobuf在解析的时候,把文件中所有的内容都解析成了单个Sensor。Sensor 中包含里所有数据, protobuf 主动合并了所有存储的数据。

在这时,我才发现以前单包录制的时候,数据都是对的,那真的是我运气好。protobuf恰好解析成功了。

怎么解决呢?

既然知道 protobuf 会这么操作,那我们就只要知道 protobuf 怎么分割就行了。这个方法还真不好找,因为像我们这样使用的人太少了。中文搜索完全搜不到这一块的内容,可能大家都不会使用protobuf来存储数据吧,大家使用的方式应该都是多个服务中进行交互的场景吧。

最终通过stackoverflow上的一些回答找到了答案,从回答中得知,这个解决办法在 protobuf 3.3 的时候,才正式被合并进去。看起来这个功能真的很少用啊。

bool SerializeDelimitedToOstream(const MessageLite& message,
std::ostream* output);
bool ParseDelimitedFromZeroCopyStream(
MessageLite* message, io::ZeroCopyInputStream* input, bool* clean_eof);

通过这一对方法,可以对文件进行按照数据流一个一个的存储读取。再也不用担心数据被合并读取。

当然通过这种方式存储的数据,不能被原来的解析方式所解析,存储的而进行格式完全变了。这种方式会先存储二进制数据的大小,再存储二进制数据。

结束语

经过一番折腾,终于搞定了这个分割的坑。使用场景可能比较小众,导致了很多资料根本找不到。靠自己看源码才发现这些问题。C++ 的源码真不好读,有很多的模板方法、模板类容易错过一些细节。最后还是看的C#的代码,才完全确认的。

责任编辑:武晓燕 来源: Java技术指北
相关推荐

2016-10-25 10:00:20

科技新闻早报

2020-06-17 10:52:30

运维故障技术

2020-09-29 06:45:49

JDK

2020-11-12 09:15:16

GitHubPython开发

2024-08-05 01:28:26

2020-12-15 08:05:40

路由器服务器网络层

2021-07-28 06:51:08

Nacos代理模式

2015-06-18 11:04:58

2021-03-04 19:29:28

程序员Unix系统

2024-09-27 11:38:49

2018-07-06 00:09:47

2019-03-06 12:26:42

密码安全数据

2021-07-21 08:37:55

AI 裁判人工智能

2021-10-18 13:42:52

加密货币金融工具

2020-10-20 17:18:00

戴尔

2021-08-28 10:15:26

项目结构Flask

2022-07-07 19:44:22

Python 3.1

2020-09-17 11:02:58

Go 开源技术

2020-12-29 05:39:44

日志服务环境
点赞
收藏

51CTO技术栈公众号