毫无疑问,为训练人工智能或机器学习 (AI/ML) 收集真实数据既耗时又昂贵。而且,很多时候也充满了风险,但更常见的问题是数据太少或有偏见的数据可能会使企业组织误入歧途。但是,如果你可以生成新数据,即所谓的合成数据呢?
这听起来不太可能,但这正是Synthesis AI计划从 468 Capital、Sorenson Ventures、Strawberry Creek Ventures、Bee Partners、PJC、iRobot Ventures、Boom Capital 和 Kubera Venture Capital 等风险投资公司筹集的 1700 万美元的 A 轮融资。
这是一个非常可靠的证据。该公司正计划利用这这笔资金来扩大其在混合真实和合成数据领域的研发。
Synthesis AI 的首席执行官 Yashar Behzadi 在一份声明中表示:“合成数据正处于采用的拐点,我们的目标是进一步开发该技术并推动计算机视觉系统构建方式的范式变革。该行业将很快在虚拟世界中全面设计和训练计算机视觉模型,从而实现更先进和合乎道德的人工智能。”
但什么是合成数据?
合成数据是人工创建的,而不是从现实世界中收集的。当前,许多应用都专注于视觉数据,例如从计算机视觉系统收集的数据。尽管如此,没有实际理由不能为其他用例创建合成数据,例如测试应用或改进用于检测欺诈的算法。它们有点像物理记录的高度结构化的数字孪生。
通过大规模提供海量、真实的数据集,数据科学家和分析师理论上可以跳过数据收集过程,直接进入测试或训练。
这是因为创建真实世界数据集的大部分成本不仅仅是收集原始数据。以计算机视觉和自动驾驶汽车为例,汽车制造商和研究人员可以将各种摄像头、雷达和激光雷达传感器连接到车辆上进行收集,但原始数据对 AI/ML 算法没有任何意义。同样艰巨的挑战是使用上下文信息手动标记数据,以帮助系统做出更好的决策。
让我们来看看这个挑战的背景:想象一下,你经常开一段很短的车,所有的停车标志、十字路口、停着的车、行人等等,然后想象一下,给每一个潜在的危险都贴上标签是一项艰巨的任务。
合成数据的核心优势在于,理论上,它可以创建完美标记的数据集,其规模足以正确训练 AI/ML 应用,这意味着数据科学家可以在大量新地方突然测试他们的算法,然后才能真正实现世界数据或在难以获取的情况下。继续自动驾驶汽车的例子,数据科学家可以创建合成数据来训练汽车在恶劣条件下驾驶,例如积雪覆盖的道路,而无需派司机向北或进入山区手动收集数据。
合成数据的核心优势在于,从理论上讲,它可以在适当训练AI/ML应用所需的规模上创建完美标记的数据集,这意味着数据科学家可以在获得真实数据之前,或在难以获得数据的情况下,突然在许多新的地方测试他们的算法。还是自动驾驶汽车的例子,数据科学家可以创建合成数据来训练汽车在不利条件下驾驶,比如白雪覆盖的道路,而无需让司机一路向北或进入山区手动收集数据。
然而,合成数据存在先有鸡还是先有蛋的问题,因为只能使用……更多数据和更多 AI/ML 算法来创建它。从“种子”数据集开始,然后将其作为合成创作的基准,这意味着它们只会与您开始使用的数据一样好。
(无形)利益
有哪些数据科学家或研究人员不会从看似无穷无尽的数据生成器中获益?其核心好处——能够避免手动收集真实世界的数据——只是合成数据可以加速AI/ML应用的方式之一。
由于分析师和数据科学家可以严格控制种子数据,甚至可以额外努力纳入多样性,或与外部顾问合作发现和解码偏见,他们可以对自己提出更高的标准。例如,Synthesis AI正在开发一种监测司机状态的系统,并仔细地将不同的面孔包含在他们的计算机生成的合成数据集中,以确保现实世界的应用适用于每个人。
隐私是另一个潜在的胜利。如果一家公司花费数百万英里来为他们的自动驾驶汽车收集真实世界的数据,他们就会收集到很多人认为是个人隐私的大量数据——尤其是他们的脸。像谷歌和苹果这样的大公司已经找到了在他们的地图软件中避免这些类型问题的方法,但他们的路线对于想要测试他们的算法的小型 AI/ML 团队来说并不可行。
“企业还在努力解决与以人为本的产品中的模型偏见和消费者隐私相关的道德问题。很明显,构建下一代计算机视觉需要一种新的范式,”该公司首席执行官兼创始人 Yashar Behzadi对媒体表示。
虽然合成数据确实依赖于种子才能开始,但可以对其进行调整和修改,以帮助在现实生活中难以或危险捕获的边缘情况下训练 AI/ML 应用。自动驾驶汽车背后的公司希望擅长识别仅部分可见的物体或人,例如隐藏在卡车后面的停车标志,或站在两辆车之间的行人冲上马路。
考虑到这些胜利,尽管有些人担心将偏见编码到合成数据中的先有鸡还是先有蛋的问题,Gartner预测,到 2024年,用于开发 AI 和分析产品的数据的 60% 将综合生成。他们预测,大部分新数据将专注于在它们所基于的历史数据失去相关性或基于过去经验的假设失效的情况下修复预测模型。
但是总是需要收集一些真实世界的数据,所以我们距离被我们通用的、公正的自我的虚拟形象完全淘汰还有很长的路要走。