音声認識
音声認識(おんせいにんしき、英: speech recognition)とは、人間の声などをコンピューターに認識させることであり、話し言葉を文字列に変換したり、あるいは音声の特徴をとらえて声を出している人を識別する機能を指す[1]。
目次
1 概説
2 認識技術
2.1 統計的手法
2.2 動的時間伸縮法
2.3 隠れマルコフモデル
3 実際と課題
3.1 性能
4 研究中の技術
4.1 MFT
4.2 GSS
5 実用例
5.1 Windowsにおける利用
5.2 企業・団体における利用
5.3 その他の利用例
5.4 その他の応用例
6 音声認識ソフトウェア例
6.1 音声認識を応用したゲームソフト例
7 出典
8 参考文献
9 関連項目
10 外部リンク
概説
音声認識とは、人間の声などをコンピューターに認識させることである。話し言葉を文字列に変換したり音声の特徴をとらえて声を出している人を識別したりする機能を指している[1]。
話し言葉を文字列に変換する機能は、指を用いてキーボードから入力する方法に代わるものである。
文字列(文章)を入力する機能だけを呼び分ける場合は「音声入力」あるいは「ディクテーション(聞き取り)」と言う。
(ちょうどキーボードから文字列やショートカットを入力してアプリケーションを操作できるように)音声認識でアプリケーションを操作することも可能である。音声でアプリケーションを操作することは「音声操作」と言う。
「音声認識」に話者が誰なのか識別する機能を含めることもある。これは、あらかじめ記録しておいた音声パターンと比較して個人認証等をおこなう機能であり、この機能を特に呼び分ける場合は「話者認識」とも言う。
認識技術
統計的手法
音声認識では、統計的手法が良く用いられている。これは大量の発話を記録した学習用データから音声の特徴を蓄積し、認識対象となる入力音声から抽出された特徴と蓄積された特徴とを比較しながら、最も近い言語系列を認識結果として出力する手法である。
一般に、音声の音響的な特徴と言語的な特徴を分離して扱うことが多い。音響的な特徴とは、認識対象の音素がそれぞれどのような周波数特性を持っているかを表したもので、音響モデルと呼ばれる。音響モデルの表現としては、混合正規分布を出力確率とした隠れマルコフモデルが広く用いられている。言語的な特徴とは、音素の並び方に関する制約を表したもので、言語モデルと呼ばれる。例えば、「あなた (a n a t a)」という発声の直後には、「が (g a)」や「は (w a)」などの発声が続く確率が高い、などの制約である。言語モデルの表現としては、認識対象の言語が大規模な場合(パソコン上での文書作成など)はn-gramが良く用いられ、認識対象の言語が人手で網羅出来る程度に小さい場合(カーナビの音声操作など)は、文脈自由文法が良く用いられる。
動的時間伸縮法
動的時間伸縮法(Dynamic time warping、DTW)は初期の音声認識手法であるが、隠れマルコフモデルに基づく手法が一般化したため、使われなくなった。時間または早さの異なる2つの信号シーケンスの間の類似度を測るアルゴリズムである。例えば、人間の歩行のパターンは、素早く歩いても、ゆっくり歩いても、さらには歩行の画像を早送りしてもスロー再生しても一定のパターンが存在する。DTW は音声だけでなく動画などの任意の時系列のデータに適用可能である。音声認識においては、発声速度がどうであっても一定のパターンを検出するために使われていた。従って、比較のための標準パターンが必要であり、認識できる語彙は限定される。
隠れマルコフモデル
音声信号は、断片的あるいは短時間の定常信号と見ることができ、隠れマルコフモデル(Hidden Markov Model、HMM)が適用可能である。すなわち、10ミリ秒程度の短時間でみた場合、音声信号は近似的に定常過程と見なすことができる。従って、音声を多くの確率過程のマルコフ連鎖と考えることができる。
また、隠れマルコフモデルによる音声認識は自動的にトレーニングされ、単純で計算量もそれほど多くない。音声認識について考えられる最も簡単な設定では、隠れマルコフモデルは10ミリ秒ごとに例えば13次元程度の実数値ベクトルを出力するだろう。このベクトルはケプストラム係数から成る。ケプストラム係数は短時間の信号のフーリエ変換にコサイン変換を使って、その第一(最大)係数を取り出したものである。隠れマルコフモデルは、それぞれの観測されたベクトルの尤度を与える対角共分散のガウス分布の混合ともいうべき確率分布を持つ傾向がある。各単語や各音素はそれぞれ独自の出力分布を持つ。単語列あるいは音素列に関する隠れマルコフモデルは、個々の単語や音素の隠れマルコフモデルを連結したものとなる。
これらが隠れマルコフモデルを使用した音声認識技術の概念である。音声認識システムにはこれ以外にも様々な技術を使用している。語彙の多いシステムでは、音素について文脈依存性を考慮する。また、話者間の違いや録音状況の違いを正規化するために、ケプストラムの正規化が行われる。他にも話者正規化の試みとして、男女間の正規化のための声道長正規化 (VTLN) や、より不特定多数の話者に対応するための最尤線形回帰 (MLLR) がある。
実際と課題
音声認識システムの研究開発にはコンピュータが普及しだした1970年代から21世紀初頭の現在まで、長年にわたって莫大な資金と優秀な人材が投入されてきたが、成功して普及したものはほとんどなく、デジタル技術によって生み出された3次元映像に代表されるアニメーション映画や、動画、静止画、音楽の記録と再生といった技術分野は、その後、大きな産業となっているのと比べれば大きな違いがある[2]。
話者を限定して、「ディクテーション」と呼ばれる事前のトレーニングを行う方式の音声認識システムでは、日本語では理想的な環境下では80%の認識率が達成できるとされている。それらのトレーニングを積まない場合60%が限度である[3]。語彙を限定してトレーニングを必要としないシステムでは、不特定多数の話者の音声を認識できるが語彙が少ないために利用範囲は限定される。
同音異義語が少ない欧米系の言語では90%の認識率があると評価されている[4] 。
個人向けに市販されている音声認識ソフトでは、静かな部屋でユーザーがヘッドセットを使い、単語を区切るなどのいくつかのコツを知っていれば十分実用的な認識率を示す。ただし屋内であっても背後で大声の会話がなされる環境や、屋外などの騒音のある環境では認識が困難である。また、個人のレベルで使用することを想定しているため、対応する語彙が限られ業務用語はカバーされていない。さらに、複数の話者による発声や、音声認識向けと意識していない、例えばインタビューや会議などの発声を認識するのは困難である。
企業向けでは、大規模語彙と複数の不特定話者に対応した会議などの議事録作りに使えるより高価なソフトも販売されており[要出典]、カセットテープやICレコーダの聞き起こしに比べ効率的に作業を行うことができる。
性能
音声認識システムの性能は一般に正確度と速度で表される。正確度は単語誤り率 (word error rate, WER) で表され、速度は実時間係数 (real time factor, RTF)で表される。
研究中の技術
MFT
話者の音声の特徴量が雑音や特徴分離処理によって歪むと音響モデルとの差が開いて誤認識の元となる。得られた音声の特徴量に歪みや雑音がどの程度含まれているかを推定し時間軸と周波数軸に対して信頼度をマップとして持たせて、低信頼度の特徴量にはマスクをかけたり、失われた音声を復元する処理に活用するのがミッシング・フィーチャー理論(Missing feature theory)
である[2]。
GSS
GSS(Geometric source separation)は複数の音源を分離する技術であり、音源間に相関が無ければ複数のマイクからの入力情報によって比較的簡単に音源分離とその位置情報(音源定位)が得られる。これをMFTの雑音情報として信頼度マップに反映させれば、騒音下や同時発話の状況でもそれほど認識率を落とさずに済む[2]。
実用例
Windowsにおける利用
Windows VistaとWindows 7では音声認識機能が搭載されており、この機能を使用して、キーボード入力なしにチャットをするなどの操作が可能となっている。音声認識機能でパソコンを操作するといった利用方法はこれまでにもあったが、日本語の認識率を向上させているほか、マウスやキーボードで行うWindowsの操作が音声で操作できるようになっている。
Windows 10からはCortanaという音声認識アシスタント機能が搭載され、さらに様々な操作が可能になった。(Windows PhoneではWindows Phone 8.1から搭載されていた。)
企業・団体における利用
企業、病院、自治体では、2005-6年頃から次第に次のような実用システムの導入が活発化してきている。
- 医師向け電子カルテ入力システム
- 自治体向け議事録作成支援システム
コールセンター向けオペレータ支援・通話内容分析システム- 学校向け語学学習アプリケーションでの発音評価システム
その他の利用例
- 携帯端末(スマートフォンなど)へのメール文章入力
同時通訳型の機械翻訳、自動通訳
パソコン上での文書作成(口述筆記の自動化)- 音声指示による機械操作(カーナビ、電子カルテ等のハンズフリーコンピューティング)
- 指示を聞き分けるペットロボット(ロボット工学への応用)
- 音声対話受付案内システム(自動音声応答装置)
- 裁判員制度での評議における証言内容などの確認(映像と文字の連動)
音声Webアプリケーション w3voice Laboratory (音声認識や対話を体験できるWebサイト)
その他の応用例
「感性制御技術」(Sensibility Technology=ST)などと組み合わせることにより、例えば「ごめんなさい」も口先だけで軽く言った「ごめんなさい」も同じ「ごめんなさい」でしかないが、早口で軽いトーンの「ごめんなさい」は、バカにしていると判断して怒った態度で接したり、ゆっくり丁寧に発音された「ごめんなさい」は、心からの謝辞だと理解して許したりすることが可能となる。
音声認識ソフトウェア例
- Nuance
- Nuance Dragon NaturallySpeaking
- ドラゴンスピーチ
- 上記のソースネクスト版
IBM ViaVoice - IBMから買収
アドバンスト・メディア
- AmiVoice
- ES2008(エムシーツー)
- AmiVoice SP
- AmiVoice SP2
- AmiVoice Ex7(医療用)
- AmiVoice CLx(医療・介護用クラウド型)
NEC
VisualVoice (人同士の自然な会話に対応した音声認識ソフト、コールセンター向け)
VoiceGraphy (議事録向けの音声認識ソフト)
WebOTX Speech Recognition (音声認識ミドルウェア)
マイクロソフト
Windows Vistaなどに標準搭載
Windows 10に標準搭載(Cortana)
- Vocollect
Vocollect Vocollect公式 - インターメックが買収、その後インターメックをハネウェルが買収。
Julius - フリーの音声認識ソフト 公式サイト
- Lab9 Solutions SpeechLab SDK & MobileSpeech
NTTアイティ株式会社
- FutureVoice EX(高品質音声合成ソリューション)
- SpeechRec(高精度音声認識ソリューション)
- VoiceMail(音声版Saas)
- ADVICE(音声自動応答プラットフォーム)
株式会社シーネット(C_Net)
- 物流業務向け音声認識ソリューションについて
- ci.Himalayas/voiceシリーズ(voice/ex) 日本語商品名対応版
- ci.Himalayas/voiceシリーズ(ボイデジ) デジタルピッキング&音声認識システム対応版
音声認識を応用したゲームソフト例
- シーマン
- 大玉
- オペレーターズサイド
- デカボイス
- ピカチュウげんきでちゅう
- Touch! Generations
- 機動戦士ガンダム 戦場の絆
- TALKMAN
出典
- ^ ab大辞泉
- ^ abc野澤哲生著 『多数の人の声を一度に聞き分ける聴覚センサ』 日経エレクトロニクス 2008年9月22日号 115-123頁
^ 成田一『パソコン翻訳の世界』講談社
^ Wall Street Journal
参考文献
- Lawrence Rabiner (1993), "Fundamentals of Speech Recognition", Prentice Hall, ISBN 0-13-015157-2
- Frederick Jelinek (1998), "Statistical Methods for Speech Recognition", MIT Press, ISBN 0-262-10066-5
- Manfred R. Schroeder (2004), "Computer Speech: Recognition, Compression, Synthesis", Springer-Verlag, ISBN 3-540-64397-4
関連項目
- パターン認識
- 自然言語処理
- 音声分析
- 音声処理
- 音声強調
- 音声合成
- 音声検索
- VoiceXML
外部リンク
- "Survey of the State of the Art in Human Language Technology (1997) by Ron Cole et all"
音声認識技術に関する特許出願技術動向調査報告(PDF) 特許庁総務部技術調査課(2003年5月22日)
音声認識について考える Shun
GALE project DARPAの音声認識と機械翻訳を組み合わせたプロジェクト
HTK Hidden Markov Model Toolkit
CMUSphinx オープンソースの音声認識エンジン(カーネギーメロン大学)