
据连线杂志报导,中国语音辨识公司科大讯飞卷入的“AI同步口译造假”风波依然还在发酵,引发了人们关于AI即时翻译技术的更多关注。
不久前,Google 悄悄改变了Pixel Buds耳机的支援网页,并写道:“所有经过Google Assistant最佳化的耳机和Android手机,现在都可以使用Google 翻译。”先前,这一功能仅限于Pixel Buds耳机和Pixel手机使用者。尽管Google 并未大张旗鼓地宣布这个消息,但这个小小的调整却值得注意。
要知道其中原因,首先我们来了解下Google 耳机的历史。Google 去年推出了无线耳机Pixel Buds,此前该公司曾大肆宣传过这款产品,称其是一款性的工具,支援即时翻译功能。只要轻敲Pixel Buds,说“帮我说”,它就会打开你手机上的Google 翻译App。现在,Pixel手机也同样支援这个功能。
接着,你可以说出句子,Google 翻译会在手机上将其翻译成指定的语言,并进行转录,然后读出来。理论上,Google 的新技术甚至会让口译翻译们担心丢掉工作。这款产品在许多Google发表会的舞台上的即时翻译示范获得了巨大成功,但当其开始实际出货到消费者手上时,人们对其似乎产生了怀疑:翻译的品质没有达到公众的预期。
科技网站Tech Insider用十种不同的语言对即时翻译功能进行了测试。它成功地翻译了些基本问题,比如“最近的医院在哪里”,但当句子变得更复杂,或者说话人有口音时,翻译就会出现错误。评论员们得出的结论是,即时翻译似乎有点“欺骗嫌疑”,Google Assistant需要努力理解对它说出的话。
消费技术资深分析师丹尼尔‧格里森(Daniel Gleeson)说:“掌握自然语言是非常困难的。对于Google 来说,这将是个巨大的成就,而他们实现这个目标的那一天,可以自豪地大声说出来。”或许有些人可能会说,这可能也是Pixel Buds支援网页更新的讯息被隐藏起来的原因。
Google 的问题不在于翻译过程本身,事实上,该公司在过去几年始终在提升其翻译App水准。2016年,Google 将其Google 翻译转换为基于深度学习的人工智能(AI)驱动系统。在此之前,该工具将每个单独的单词分别翻译,并App语言学规则使句子在语法上保持正确,从而导致了我们非常熟悉的、支离破碎的翻译效果。另一方面,神经网络则将句子作为一个整体来考虑,并根据之前训练过的大量文本资料来猜测正确的输出结果。透过机器学习,这些系统能够考虑句子的上下文,进而提供更准确的翻译。
整合机器学习是Google Brain团队的任务,该团队是Google 专门致力于深度学习研发的部门。Google Brain还将神经网络App到另一个工具上,这是即时翻译的关键,但这似乎也导致其容易在语音辨识上犯错。实际上,Google Assistant经过了数小时的语音培训,它会使用机器学习工具来辨识模式,并最终正确地辨识出被要求翻译的内容。
那么,如果Google 在某种程度上成功地将神经网络App到文字-文字的翻译中,为什么Google Assistant仍然不能使用相同的技术精准地进行语音辨识呢?剑桥大学自然语言处理研究人员马西基‧霍瓦特(Matic Horvat)说,这一切都归结于用来训练神经网络的数据库。
霍瓦特说:“系统能够适应它们所得到的训练数据库。当你把它介绍给它从未听过的东西时,语音辨识的品质就会下降。例如,如果你的训练数据库是会话语音,那么在繁忙的环境中辨识语音效果就不会太好。”
干扰是任何致力于提高语音辨识技术的电脑科学家的克星。去年,Google 透过其数位新闻创新基金会向伦敦初创企业Trint投资1.5亿欧元,该公司在自动语音转录方面处于领先地位,尽管其算法与Google 不同。然而,Trint的算法在处理基本的干扰问题上并没有表现得更好。
事实上,Trint的公司网站专门用了长长的篇幅来介绍如何在安静环境中记录演讲内容。该公司声称,其操作存在5%至10%的误差,但它明确表示,这适用于安静环境的录音。Trint首席首席执行官杰夫‧科夫曼(Jeff Kofman)说:“最大的挑战是向我们的使用者解释,我们的表现只能和他们给我们的声音档一样好。在有回声、噪音甚至重音的情况下,算法就会出错。”
现场演讲所带来的挑战意味着,在创建神经网络的过程中,训练过程是成本最高、耗时最长的部分。而像Google 对Pixel Buds所做的那样,只在有限数量的设备上支援即时翻译,当然无助于系统学习。实际上,它处理的语音越多,它可以向算法中添加的资料就越多,机器就越能学会辨识不熟悉的语音模式。
对于消费技术资深分析师格里森来说,这是Google 将该功能扩展到更多软件的原因之一。他表示:“语音辨识中最棘手的问题之一,就是收集足够的特定口音、俗语、熟语资料,所有这些都是高度区域化的。将这个功能仅用于Pixel上,永远不会让Google 接触到那些区域化资料,进而也无法处理足够多的资料。”
然而,积累资料也有不利的一面。表现最好的神经网络是那些拥有最多资料的网络,但由于资料需要在CPU上处理,CPU的压力也会随着讯息量的增多而增加。这类CPU还远未达到与行动设备完美整合的程度,使得即时语音处理在今天依然无法成为现实。实际上,每次使用Google Assistant时,语音讯息都会被发送到资料中心进行外部处理,然后再发送回使用者的手机上。这些计算工作都不是在本地完成的,因为现有的手机无法存储神经网络处理语音所需的庞大资料。
霍瓦特说,虽然Google Assistant能够相当快地完成这一过程,但距离即时语音辨识还有很长的路要走。该公司目前面临的挑战之一是,如何在手机中整合神经网络处理,以提高即时翻译等功能的无缝性。事实上,开发人员已经在致力于开发适合于高效处理神经网络的小型外部芯片,这种芯片可以整合到手机中。例如,本月早些时候,华为宣布了一种AI芯片,该公司声称其可以在几分钟内训练好神经网络算法。
虽然Google 有自己的芯片Edge TPU,但它是为企业使用者而不是智能手机设计的。对霍瓦特来说,这是它的致命弱点:作为一家软件公司,Google 对制造商没有多少控制权,无法确保开发出一种产品,使所有Android设备都能使用本地神经网络处理,与苹果截然不同。
在不久的将来,Google 可能采取更小的步骤来改进其语音辨识技术。虽然即时翻译引来了许多批评,但对于行业分析师、Counterpoint物联网、行动和生态系统研究主管尼尔‧沙赫(Neil Shah)来说,扩展它有益于Google 参与竞争:“Google 已经获得20亿Android使用者。随着越来越多的使用者开始在Android手机上使用最新的语音互动,它能够比竞争对手更快地扩大规模,并接受大量输入资料流的训练。”
格里森所也赞同这种看法。无论对即时翻译的评论是否坚持温和嘲讽的基调,Google 的举动最终都会带来显著的改进。就像所有的AI产品一样,这个工具同样需要学习,它进入市场的过程还没有完成。格里森表示:“人们可能会说,Google 的即时翻译运作方式与承诺的不一样,但这是其实现目标的唯一途径。”口译翻译现在不必担心他们会立马丢掉工作。
- 资料来源:Why is Googles live language translation so bad? We asked some experts
- 本文授权转载自网易科技