640?wx_fmt=png

640?wx_fmt=jpeg

场景描述:近日 Google Brain 团队对外发布了 Parrotron 项目,帮助人和设备更准确地理解具有语音障碍的人。Parrotron  从音频分析入手,从语音信号的角度来解决问题。它通过单个端到端深度神经网络训练,将来自语音障碍人士的语音,直接转换为流利的合成语音,从而帮助他们解决交流上的问题。


关键词:构音障碍  深度神经网络   机器翻译


作者:神经小姐姐

来源:HyperAI超神经(ID:HyperAI)


Dimitri Kanevsky,出生于 50 年代的俄罗斯,他的成长阶段经历了中苏冷战,但他仍然完成学业,并获得了数学博士学位。


他的求学、工作足迹从俄罗斯开始,辗转于以色列、德国,最终选择留在了美国,并成为了谷歌的研究科学家,专注于语音识别算法领域。


似乎是一个学霸精英的人生路径:受到良好的教育,获得美国绿卡、光鲜的工作、152 项美国科学技术专利,最后在硅谷登顶人生巅峰。


640?wx_fmt=jpeg


故事却远远没这么简单,Dimitri Kanevsky 并不是一个普通人。大多数人都难以想到,他还是听障人群中的一员。


Dimitri Kanevsky 在一岁时,因为药物导致了耳聋,但他的家庭依旧为他选择了正常的教育,他从小就开始学习读唇、发声,一直就读于普通学校。并在十几岁的时候,通过俄语发音的辅助,开始学习英语。


但在学习英语时,因为听力障碍、俄语发音差别等原因,他在语言交流上存在很大的障碍。他说出的语句比较模糊,常常是对方听不懂的表达。甚至连对自己的家人的口头关怀,都有可能无法递达。


简单来说,他说的英语大多数人很难直接听懂,为了解决自己的问题,也帮助更多和自己面临类似问题的人群,Dimitri Kanevsky 一直在攻克语音识别方向的课题。


640?wx_fmt=jpeg

有时只为完成一些普通的交流

Dimitri Kanevsky 需要借助语音转文字的工具


在医学上,这种说话不清楚的情况称为「构音障碍 dysarthria」。据统计,因为身体疾病而导致构音障碍的情形,在全世界多达一百万人。


构音障碍是由于神经病变,与言语有关的肌肉麻痹、收缩力减弱或运动不协调所致的言语障碍,通俗的说法是「口齿不清」。


比如中风,大脑麻痹,帕金森病,唐氏综合症, ALS(渐冻症)等诸多疾病,都会造成这一状况。


640?wx_fmt=jpeg

对方说了叽里咕噜的一堆

你听到的却是呜呜哇哇的一串杂音...


同样在谷歌,一位叫 Aubrie Lee 的品牌市场经理,被诊断出罕见的肌肉萎缩症(渐冻症),导致她长时间要在轮椅上度过。


全身肌肉的不断流失,也造成了她在交流上的困难。Aubrie 在听力和发音上都异常吃力,还因为无法微笑而常常被人误解。此外她还拥有多种口音,发音并不清晰,在对话时对方往往无法明白她的意思。


为了帮助 Dimitri Kanevsky 和 Aubrie Lee 这样的同伴,解决他们在语言上的难题,构音困难逐渐成了谷歌 AI 研究团队的一个科研方向。


640?wx_fmt=png


关怀语言障碍者,谷歌推出突破性工具



几年前,Kanevsky 带着 30 年的语音识别经验,加入谷歌的 AI 研究组,那时还没有能让他和其他人正常沟通的便捷工具。每次开会, Kanevsky 都需要提前预定 CART 服务,依赖字幕员进入到会议中,将语音信息敲到屏幕上进行对话。


同样的,Aubrie 和自己同事们,也都需要花费很大的力气,才能完成常人轻松胜任的工作交流。但这种窘境,正在慢慢地成为历史。


2019 年 2 月,谷歌推出了一款 App——Live Transcribe ,为便携式的语言转化带来了曙光。它是一款即时转录真实世界语音的应用程序,使用手机自带的麦克风,即可将语音转换为实时显示的文字。


随后,在 5 月份的谷歌 I/O 大会上, Project Euphoria  被提出,这个计划为 ALS 导致的语言受损人群,提供一套语音到文字的解决方案。



640?wx_fmt=jpeg


Project Euphoria 中

谷歌训练 AI 模型以适应语言障碍


在这个月,谷歌推出了一款新的 AI 工具 Parrotron,能够直接将模糊的声音,转化成标准的合成音。这将解决语言障碍的技术又往前推进了一步。


Parrotron 由端到端的深度神经网络组成,从音频分析的角度入手,在使用时,测试者对着手机等设备说话,就能快速的得到转述后的标准发音。


在论文《Parrotron: An End-to-End Speech-to-Speech Conversion Model and its Applications to Hearing-Impaired Speech and Speech Separation》中,Parrotrn 表现优异,语音识别和转化的正确率都有了新的突破。


论文地址:https://arxiv.org/abs/1904.04169


640?wx_fmt=png


Parrotron:将模糊话语,翻译成清晰的语音


那这项看起来黑科技满满的技术,究竟是怎么做到的呢?


Parrotron 是一个端到端的序列到序列模型,使用输入/输出语音对的并行语料库训练,建立了模糊音与正常语句之间的映

640?wx_fmt=png

Parrotron 的结构流程示意图


网络模型由注意力机制的编码器和解码器组成,最后由声码器合成时域波形,提供预测出的音频信号。


编码器将声学帧序列转换为隐藏的特征表示,解码器将解析出表示以预测出频谱图。


操作上分为两个步骤:首先,为标准流畅的音频构建语音到语音转换模型,然后调整模型参数将模糊语音作为输入,让模型学会分辨和识别



640?wx_fmt=jpeg



Kanevsky 和另一员工使用 Parrotron


为了模拟 ALS 患者的语音特征,他们使用来自 Project Euphonia 的 ALS 语音语料库,通过合成语言的方式制造模糊的语句,作为训练数据。


而对特定的个人,就由本人提供录制的素材。


在经过训练后,转换模型能够排除语言中的干扰因素,比如重音、韵律和背景噪音等影响;同时忽略掉所有非语言信息的干扰,包括说话者特征,环境因素,说话方式,仅分析和处理谈话的内容。


640?wx_fmt=png


Parrontron 前两位测试者:毫无悬念


要验证 Parrotron 的实际效果,自然还要看它在实践中的表现。而测试的最佳人选,毫无疑问落到了 Dimitri Kanevsky 和 Aubrie Lee 身上。


在实验中,Dimitri 录制了一个 15 小时长的语料库,让模型学习他讲话时的细微之处。通过学习,模型在最后的翻译中,在测试集里的翻译错误率,从开始的 89% 降低到了 32%


换句话说,使用 Parrotron 转录的语音,对方或者 ASR (语音识别)系统能够轻松的听懂他了。


Kanevsky 使用 Parrotron 的详情


随后, Aubrie Lee 也进行了测试,通过她贡献的 1.5 小时讲话内容,模型翻译出的准确的语音,也让她实现了清楚表达的愿望


640?wx_fmt=png


 AI for Social Good:人工智能的使命


人工智能打造的无障碍项目,在最近几年被频繁地提出。许多极具关怀的技术纷纷出现,在努力帮助残障人士打开新奇的大门。


当然,技术在服务这些人的同时,也被这些特别的群体所推动。比如 Dimitri Kanevsky,因为深知构音障碍带来的困境,他一直致力于语音辨识和通讯研究的研究工作。而 Aubrie Lee 则用热烈而蓬勃的生活态度,鼓舞和督促着更多对残障人群的研究投入。


640?wx_fmt=jpeg

Aubrie 还是跨学科艺术家、设计师

活跃在多个为残疾人权益斗争的平台上


虽然目前的数据显示,情况还并不乐观:在全球所有的残障人士中,只有十分之一的人,获得了相应的技术工具。但所幸的是,随着一些喜人的进步,很多情况都在发生改变。


作为科技大厂的谷歌,还在实施他们「AI for social good」的计划,而诸如 Parrotron 之类的工具,大概就是朝着美好愿景踏进的脚印。


在人工智能技术风靡世界的当下,我们看到了 AI 对艺术的改造和创造力,对社会生活的积极推动,但也看到了有人利用 AI 恶意换脸、拼接、无中生有。


希望 AI 能回归科学的初心,帮助更多需要帮助的人,Make the world a better place!


640?wx_fmt=png


640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

- 加入社群吧 -

640?wx_fmt=png

640?wx_fmt=png

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐