Google发布的新研究论文详述了语音识别程序幕后的数据科学,包含了语音搜索和向YouTube视频中添加文字说明和标签。虽然其中的算法多数人都无法掌握,但是思想却是完全可以理解的。论文的出发点在于人们对大数据衷的原因及为工作选择合适数据集的重要性。
Google自始至终都认为数据是越多越好,用产品研发总监Peter Norvig的话就是:更多的数据胜过更好的算法。尽管Norvig的评价中还有一些对算法的吹毛求疵,但是显然更多的人接受了这篇论文并在大数据领域引起了热烈的讨论。模型用来学习的数据越多,模型就会变的越精确 —— 即使开始时不是最***的。
言归正传,下面我们来看一下更多的数据在语音识别系统的改善中所起到的作用。研究人员发现数据集和大型语言模型(维基百科对Google 研发中涉及到的n-gram模型的解释)可以降低在收到***个单词时推测下一个单词时的错误率。比如Google高级研究员在10月31日关于这项研究的博客中给出的例子:一个好的模型在前两个单词是“New York”时推测下一个词时会更多的选择“pizza”而不是“granola”。在做语音搜索时,他的团队发现:模型的大小每增加两个数量级就可以减少10%的关系词错误率。
这里的关键在于什么类型的数据集对你的模型有益,不管它们是什么。对于搜索的测试,Google使用google.com匿名查询的随机样本中抽取没有出现拼写校正的230个单词。因为人们讲话和写作不同于普通的打字搜索,所以YouTube模型的数据都是来自新闻报道的录音和大型网站上的抓取。他们写道:“单纯的就语言建模而言,各种各样的话题和口语风格让大型网站抓取成为语言模型建立的很好选择。”
虽然这个研究并不一定具有突破性,但是却道出了大数据和数据科学为什么会在今天引起这么多的注意。随着消费者需求更智能的应用程序和更无缝的用户体验,每一块数据的选择及每一块数据对应分析方案无疑都是重中之重!