close
1.

図書

図書
edited by Sadaoki Furui, M. Mohan Sondhi
出版情報: New York : M. Dekker, c1992  xv, 871 p. ; 24 cm
シリーズ名: Electrical engineering and electronics
所蔵情報: loading…
2.

図書

図書
古井, 貞煕(1945-)
出版情報: [Tokyo] : [Tokyo Institute of Technology], [2011]  126 p. ; 30 cm
所蔵情報: loading…
3.

図書

図書
Allen Gersho, Robert M. Gray [著] ; 古井貞煕 [ほか] 共訳
出版情報: 東京 : コロナ社, 1998.11  xxiii, 838p ; 22cm
所蔵情報: loading…
4.

コンピュータファイル

コンピュータファイル
古井, 貞煕(1945-)
出版情報: [東京] : [東京工業大学], [2011]  DVD-ROM1枚 ; 12cm
所蔵情報: loading…
5.

図書

図書
edited by Jhing-Fa Wang, Sadaoki Furui, Biing-Hwang Juang
出版情報: Boston, Mass. : Kluwer Academic Publishers, c2004  129 p. ; 27 cm
所蔵情報: loading…
目次情報: 続きを見る
Guest Editorial / Jhing-Fa Wang ; Sadaoki Furui ; Biing-Hwang Juang
A Robust Bimodal Speech Section Detection / K. Murai ; S. Nakamura
Acoustic Feature Analysis and Discriminative Modeling of Filled Pauses for Spontaneous Speech Recognition / Chung-Hsien Wu ; Gwo-Lang Yan
Simultaneous Recognition of Distant-Talking Speech of Multiple Talkers Based on the 3-D N-Best Search Method / P. Heracleous ; K. Shikano
Multi-Modal Speech Recognition Using Optical-Flow Analysis for Lip Images / S. Tamura ; K. Iwano ; S. Furui
Speech Enhancement Using Perceptual Wavelet Packet Decomposition and Teager Energy Operator / Shi-Huang Chen
Use of Microphone Array and Model Adaptation for Hands-Free Speech Acquisition and Recognition / Jen-Tzung Chien ; Jain-Ray Lai
Multimedia Corpus of In-Car Speech Communication / N. Kawaguchi ; K. Takeda ; F. Itakura
Speech and Language Processing for Multimodal Human-Computer Interaction / L. Deng ; Y. Wang ; K. Wang ; A. Acero ; H. Hon ; J. Droppo ; C. Boulis ; M. Mahajan ; X.D. Huang
Blind Model Selection for Automatic Speech Recognition in Reverberant Environments / L. Couvreur ; C. Couvreur
Guest Editorial / Jhing-Fa Wang ; Sadaoki Furui ; Biing-Hwang Juang
A Robust Bimodal Speech Section Detection / K. Murai ; S. Nakamura
Acoustic Feature Analysis and Discriminative Modeling of Filled Pauses for Spontaneous Speech Recognition / Chung-Hsien Wu ; Gwo-Lang Yan
6.

図書

図書
古井貞煕著
出版情報: 東京 : 丸善プラネット , 東京 : 丸善出版 (発売), 2021.5  x, 177p ; 22cm
所蔵情報: loading…
目次情報: 続きを見る
シカゴへ:TTIC : Toyota Technological Institute at Chicago)学長に就任
第1部 TTICの教育・経営とアメリカの高等教育環境(TTICの学長の仕事
TTICの経営基盤の確立
アメリカの教育システムと文化
教育の方向性と教職員の日米格差
第2部 AI時代のグローバルリーダー育成 : 国際的に活躍できる人材の育成
グローバルリーダーの育成
人工知能(AI)時代のリーダー
TTIC学長からの退任
シカゴへ:TTIC : Toyota Technological Institute at Chicago)学長に就任
第1部 TTICの教育・経営とアメリカの高等教育環境(TTICの学長の仕事
TTICの経営基盤の確立
概要: 筆者は、アメリカのシカゴで、AI(人工知能)の研究と教育を中心とする、博士課程だけの大学院大学の学長を6年間務めた。その経験を基に、アメリカと日本の大学と社会の違いを比較しながら、AI時代のグローバル化された世界で、日本の大学と社会が直面し ている危機に警告を発し、新たに発展するための提言を行っている。 続きを見る
7.

図書

東工大
目次DB

図書
東工大
目次DB
古井貞煕著
出版情報: 東京 : 森北出版, 1998.6  vii, 173p ; 22cm
シリーズ名: 電子情報通信工学シリーズ
所蔵情報: loading…
目次情報: 続きを見る
第1章 音声情報処理の基礎 1
   1-1 音声の基本的性質 1
   1-2 発声器官の構造 2
   1-3 音声生成モデル 6
   1-4 音声の物理的性質 9
   1-5 音声情報処理の概要 13
   演習問題 15
第2章 音声分析 16
   2-1 音声分析の原理 16
   2-2 音源情報の抽出法 22
   2-3 相関関数とスペクトル 24
   2-4 ケプストラム 24
   2-5 線形予測モデルによる分析法 26
   2-6 CSM分析 38
   2-7 LPCケプストラム 38
   2-8 合成による分析 39
   2-9 音声分析合成系 40
   2-10 声道断面積関数の推定 45
   2-11 線形予測パラメータの相互関係 45
   演習問題 46
第3章 音声符号化 47
   3-1 音声符号化の原理 47
   3-2 時間領域での符号化 51
   3-3 周波数領域での符号化 55
   3-4 ベクトル量子化 56
   3-5 時間領域調波構造伸縮(TDHS)アルゴリズム 59
   3-6 分析合成系と波形符号化の組合せ(ハイブリッド符号化) 60
   演習問題 65
第4章 音声合成 67
   4-1 音声合成の原理 67
   4-2 録音編集方式とパラメータ編集方式 68
   4-3 規則合成方式 68
   4-4 テキスト音声合成 73
   演習問題 78
第5章 音声認識 79
   5-1 音声認識の原理 79
   5-2 音響処理 82
   5-3 DPマッチング(DTW) 91
   5-4 HMM法 96
   5-5 ニュートラルネットワークによる方法 105
   5-6 連続単語音声認識 106
   5-7 文音声認識 111
   5-8 ロバスト(頑健)な音声認識 122
   演習問題 132
第6章 話者認識 133
   6-1 話者認識の原理 133
   6-2 テキスト依存型話者認識 140
   6-3 テキスト独立型話者認識 142
   6-4 テキスト指定型話者認識 144
   演習問題 146
第7章 音声情報処理の応用と今後の課題 147
   7-1 音声符号化 147
   7-2 音声合成 148
   7-3 音声認識 148
   7-4 話者認識 149
演習問題解答 150
参考文献 154
索引 168
第1章 音声情報処理の基礎 1
   1-1 音声の基本的性質 1
   1-2 発声器官の構造 2
8.

図書

東工大
目次DB

図書
東工大
目次DB
日本学際会議編 ; 辻三郎 [ほか] 執筆
出版情報: 東京 : 共立出版, 1993.10  v, 198p ; 21cm
所蔵情報: loading…
目次情報: 続きを見る
はじめに
1.感性情報処理 辻 三郎 1
   1.感性情報処理と人工知能 3
   2.感性情報とは 6
   3.コンピュータは,キャンバスと絵具,楽器にすぎないのか 9
   4.感性情報処理研究の難しさ 11
   5.感性情報研究プロジェクト 11
   6.感性科学へのアプローチ 19
   質疑応答 20
2.感性コミュニケーションと顔 原島 博 27
   1.はじめに 29
   2.工学者がなぜ顔に関心をもつのか 30
   3.知的画像符号化と顔 30
   4.どうすれば顔を合成できるのか 32
   5.顔の表情は,どう扱ったらよいのか 33
   6.FACSによる表情の合成と分析 35
   7.表情の分析もできる 39
   8.動画をビデオでお見せします 41
   9.容貌はどう考えたらよいか.まずは顔の中割りをやってみよう 43
   10.顔の心理学へ 45
   11.顔合成を数学的に考えてみよう 46
   12.顔をパラメータ空間内の点として定義する 49
   13.顔の表情も空間として把握できる 51
   14.顔情報学へ 52
   15.顔研究は怖い… 53
   16.いい顔,いい心,いいコミュニケーション 54
   質疑応答 54
3.視覚と感性 杉江 昇 63
   1.知・情・意 65
   2.感性と情動 66
   3.見ると見せる 67
   4.真めきたる嘘 68
   5.嘘めきたる真 68
   6.視覚と情動 84
   7.自然と美 85
   8.絵画と視覚 87
   9.鑑賞から創造へ 88
   質疑応答 88
4.感性と認知情報処理 安西祐一郎 99
   1.はじめに 101
   2.心理学における感性研究の歴史 101
   3.感性と工学システムデザイン 107
   4.ロボットと信頼感 107
   5.ロボットの感性 115
   6.おわりに 118
   質疑応答 119
5.音声処理と感性 音声処理によるコンピュータとの心地よい対話の実現 古井貞熙 123
   1.感性をもつ機械とは 125
   2.臨場感通信 126
   3.人とコンピュータとのコミュニケーション 133
   4.まとめ 157
   質疑応答 158
6.知識と感性 堂下修司 163
   1.自然科学の系譜 166
   2.物理世界から情報世界へ 169
   3.知的世界から感性世界へ 172
   4.知性と感性の捉え方 173
   5.知性と感性の特性化 176
   6.感性を特徴づけるキーコンセプト 178
   7.人の総合的情報処理過程のモデル 182
   8.知性と感性の相互作用 185
   9.知性と感性を含む情報処理の諸形態 189
   10.人と機械における感性研究へのアプローチ 191
   質疑応答 192
はじめに
1.感性情報処理 辻 三郎 1
   1.感性情報処理と人工知能 3
9.

図書

東工大
目次DB

図書
東工大
目次DB
Sadaoki Furui
出版情報: New York : Dekker, c2001  xx, 452 p. ; 24 cm
シリーズ名: Signal processing and communications series ; 7
所蔵情報: loading…
目次情報: 続きを見る
Series Introduction (K.J. Ray Liu)
Preface to the Second Edition
Acknowledgments
Preface to the First Edition
1. INTRODUCTION 1
2. PRINCIPAL CHARACTERISTICS OF SPEECH 5
   2.1 Linguistic Information 5
   2.2 Speech and Hearing 7
   2.3 Speech Production Mechanism 9
   2.4 Acoustic Characteristics of Speech 14
   2.5 Statistical Characteristics of Speech 20
   2.5.1 Distribution of amplitude level 20
   2.5.2 Long-time averaged spectrum 23
   2.5.3 Variation in fundamental frecuency 24
   2.5.4 Speech ratio 26
3. SPEECH PRODUCTION MODELS 27
   3.1 Acoustical Theory of Speech Production 27
   3.2 Linear Separable Equivalent Circuit Model 30
   3.3 Vocal Tract Transmission Model 32
   3.3.1 Progressing wave model 32
   3.3.2 Resonance model 38
   3.4 Vocal Cord Model 40
4. SPEECH ANALYSIS AND ANALYSIS-SYNTHESIS SYSTEMS 45
   4.1 Digitization 45
   4.1.1 Sampling 46
   4.1.2 Quantization and coding 47
   4.1.3 A/D and D/A conversion 51
   4.2 Spectral Analysis 52
   4.2.1 Spectral structure of speech 52
   4.2.2 Autocorrelation and Fourier transform 53
   4.2.3 Window function 57
   4.2.4 Sound spectrogram 60
   4.3 Cepstrum 62
   4.3.1 Cepstrum and its application 62
   4.3.2 Homomorphic analysis and LPC cepstrum 66
   4.4 Filter Bank and Zero-Crossing Analysis 70
   4.4.1 Digital filter bank 70
   4.4.2 Zero-crossing analysis 70
   4.5 Analysis-by-Synthesis 71
   4.6 Analysis-Synthesis Systems 73
   4.6.1 Analysis-synthesis system structure 73
   4.6.2 Example of analysis-synthesis systems 73
   4.7 Pitch Extraction 78
5. LINEAR PREDICTIVE CODING (LPC) ANALYSIS 83
   5.1 Principles of LPC Analysis 83
   5.2 LPC Analysis Procedure 86
   5.3 Maximum Likelihood Spectral Estimation 89
   5.3.1 Formulation of maximum likelihood spectral estimation 89
   5.3.2 Physical meaning of maximum likelihood spectral estimation 93
   5.4 Source Parameter Estimation from Residual Signals 98
   5.5 Speech Analysis-Synthesis System by LPC 99
   5.6 PARCOR Analysis 102
   5.6.1 Formulation of PARCOR analysis 102
   5.6.2 Relationship between PARCOR and LPC coefficients 108
   5.6.3 PARCOR synthesis filter 109
   5.6.4 Vocal tract area estimation based on PARCOR analysis 110
   5.7 Line Spectrum Pair (LSP) Analysis 116
   5.7.1 Principle of LSP analysis 116
   5.7.2 Solution of LSP analysis 119
   5.7.3 LSP synthesis filter 122
   5.7.4 Coding of LSP parameters 126
   5.7.5 Composite sinusoidal model 126
   5.7.6 Mutual relationships between LPC parameters 127
   5.8 Pole-Zero Analysis 129
6 SPEECH CODING 133
   6.1 Principal Techniques for Speech Coding 133
   6.1.1 Reversible coding 133
   6.1.2 Irreversible coding and information rate distortion theory 134
   6.1.3 Waveform coding and analysis-synthesis systems 135
   6.1.4 Basic techniques for waveform coding methods 138
   6.2 Coding in Time Domain 141
   6.2.1 Pulse code modulation (PCM) 141
   6.2.2 Adaptive quantization 143
   6.2.3 Predictive coding 143
   6.2.4 Delta modulation 149
   6.2.5 Adaptive differential PCM (ADPCM) 151
   6.2.6 Adaptive predictive coding (APC) 153
   6.2.7 Noise shaping 156
   6.3 Coding in Frequency Domain 159
   6.3.1 Subband coding (SBC) 159
   6.3.2 Adaptive transform coding (ATC) 163
   6.3.3 APC with adaptive bit allocation (APC-AB) 166
   6.3.4 Time-domain harmonic scaling (TDHS) algorithm 168
   6.4 Vector Quantization 173
   6.4.1 Multipath search coding 173
   6.4.2 Principles of vector quantization 175
   6.4.3 Tree search and multistage processing 178
   6.4.4 Vector quantization for linear predictor parameters 180
   6.4.5 Matrix quantization and finite-state vector quantization 182
   6.5 Hybrid Coding 187
   6.5.1 Residual- or speech-excited linear predictive coding 187
   6.5.2 Multipulse-excited linear predictive coding (MPC) 189
   6.5.3 Code-excited linear predictive coding (CELP) 193
   6.5.4 Coding by phase equalization and variable-rate tree coding 196
   6.6 Evaluation and Standardization of Coding Methods 199
   6.6.1 Evaluation factors of speech coding systems 199
   6.6.2 Speech coding standards 203
   6.7 Robust and Flexible Speech Coding 211
7 SPEECH SYNTHESIS 213
   7.1 Principles of Speech Synthesis 213
   7.2 Synthesis Based on Waveform Coding 217
   7.3 Synthesis Based on Analysis-Synthesis Method 221
   7.4 Synthesis Based on Speech Production Mechanism 222
   7.4.1 Vocal tract analog method 223
   7.4.2 Terminal analog method 224
   7.5 Synthesis by Rule 226
   7.5.1 Principles of synthesis by rule 226
   7.5.2 Control of prosodic features 230
   7.6 Text-to-Speech Conversion 234
   7.7 Corpus-Based Speech Synthesis 237
8 SPEECH RECOGNITION
   8.1 Principles of Speech Recognition 243
   8.1.1 Advantages of speech recognition 243
   8.1.2 Difficulties in speech recognition 245
   8.1.3 Classification of speech recognition 246
   8.2 Speech Period Detection 248
   8.3 Spectral Distance Measures 249
   8.3.1 Distance measures used in speech recognition 249
   8.3.2 Distances based on nonparametric spectral analysis 251
   8.3.3 Distances based on LPC 252
   8.3.4 Peak-weighted distances based on LPC analysis 258
   8.3.5 Weighted cepstral distance 260
   8.3.6 Transitional cepstral distance 262
   8.3.7 Prosody 264
   8.4 Structure of Word Recognition Systems 264
   8.5 Dynamic Time Warping (DTW) 266
   8.5.1 DP matching 266
   8.5.2 Variations in DP matching 270
   8.5.3 Staggered array DP matching 272
   8.6 Word Recognition Using Phoneme Units 275
   8.6.1 Principal structure 275
   8.6.2 SPLIT method 277
   8.7 Theory and Implementation of HMM 278
   8.7.1 Fundamentals of HMM 278
   8.7.2 Three basic problems for HMMs 282
   8.7.3 Solution to Problem 1-Probability evaluation 283
   8.7.4 Solution to Problem 2-optimal state sequence 286
   8.7.5 Solution to Problem 3ーparameter estimation 288
   8.7.6 Continuous observation densities in HMMs 290
   8.7.7 Tied-mixture HMM 292
   8.7.8 MMI and MCE/GPD training of HMM 292
   8.7.9 HMM system for word recognition 293
   8.8 Connected Word Recognition 295
   8.8.1 Two-level DP matching and its modifications 295
   8.8.2 Word spotting 303
   8.9 Large-Vocabulary Continuous-Speech Recognition 306
   8.9.1 Three principal structural models 306
   8.9.2 Other system constructing factors 308
   8.9.3 Statistical theory of continuous-speech recognition 311
   8.9.4 Statistical language modeling 312
   8.9.5 Typical structure of large-vocabulary continuous-speech recognition 314
   systems 318
   8.9.6 Methods for evaluating recognition systems 320
   8.10 Examples of Large-Vocabulary Continuous-Speech Recognition Systems 323
   8.10.1 DARPA speech recognition projects 323
   8.10.2 English speech recognition system at LIMSI Laboratory 324
   8.10.3 English speech recognition system at IBM Laboratory 325
   8.10.4 A Japanese speech recognition system 328
   8.11 Speaker-Independent and Adaptive Recognition 330
   8.11.1 Multi-template method 332
   8.11.2 Statistical method 333
   8.11.3 Speaker normalization method 334
   8.11.4 Speaker adaptation methods 335
   8.11.5 Unsupervised speaker adaptation method 336
   8.12 Robust Algorithms Against Noise and Channel Variations 339
   8.12.1 HMM composition/PMC 344
   8.12.2 Detection-based approach for spontaneous speech recognition 344
9 SPEAKER RECOGNIT ION 349
   9.1 Principles of Speaker Recognition 349
   9.1.1 Human and computer speaker recognition 349
   9.1.2 Individual characteristics 351
   9.2 Speaker Recognition Methods 352
   9.2.1 Classification of speaker recognition methods 352
   9.2.2 Structure of speaker recognition systems 354
   9.2.3. Relationship between error rate and number of speakers 358
   9.2.4 Intra-speaker variation and evaluation of feature parameters 360
   9.2.5 Likelihood (distance) normalization 364
   9.3 Examples of Speaker Recognition Systems 366
   9.3.1 Text-dependent speaker recognition systems 366
   9.3.2 Text-independent speaker recognition systems 368
   9.3.3 Text-prompted speaker recognition systems 373
10 FUTURE DIRECTIONS OF SPEECH INFORMATION PROCESSING 375
   10.1 Overview 375
   10.2 Analysis and Description of Dynamic Features 378
   10.3 Extraction and Normalization of Voice Individuality 379
   10.4 Adaptation to Environmental Variation 380
   10.5 Basic Units for Speech Processing 381
   10.6 Adavanced Knowledge Processing 382
   10.7 Clarification of Speech Production Mechanism 383
   10.8 Clarification of Speech Perception Mechanism 384
   10.9 Evaluation Methods fo Speech Processing Technologies 385
   10.10 LSI for Speech Processing Use 386
APPENDICES
   A Convolution and z-Transform 387
   A.1 Convolution 387
   A.2 z-Transform 388
   A.3 Stability 391
   B Vector Quantization Algorithm 393
   B.1 VQ (Vector Quantization) Technique Formulation 393
   B.2 Lloyd's Algorithm (K-Means Algorithm) 394
   B.3 LBG Algorithm 395
   C Neural Nets 399
Bibliography 405
Index 437
Series Introduction (K.J. Ray Liu)
Preface to the Second Edition
Acknowledgments
10.

図書

東工大
目次DB

図書
東工大
目次DB
古井貞熙著
出版情報: 東京 : 角川学芸出版 , 東京 : 角川グループパブリッシング (発売), 2009.2  238p ; 19cm
所蔵情報: loading…
目次情報: 続きを見る
1 音声認識ができるコンピュータの実現を目指して
   世界で最初の音声認識装置はおもちゃの犬だった 016
   音声認識の主な用途はコンピュータとの対話と自動書き起こし 017
2 太脳と声帯と声道から音声が作られる
   音声は人が神様から授かった貴重な財産 021
   音声の基本的単位としての音素と文字 024
   アクセント・イントネーション・トーン 027
   音声は個人差が大きい 029
   音声にも色がある 030
3 耳と太脳で認識する巧みな仕組み
   聴覚は日常生活に不可欠 035
   「現在」には長さがある 040
   動物の耳と人の耳はかなり違う 041
   感動的な人工内耳 044
   声紋を見れば関東か関西出身者かがわかる 047
   大脳中枢による音声認識はトップダウン・ボトムアップ過程 050
   人はカテゴリー知覚が得意 054
   言葉を構築する脳と言葉を理解する脳は違う 056
   外国語を身につけるなら子供のときに 057
   カタカナ英語でなく「掘った芋いじるな」で勉強しよう 058
   音声は変化しているところが最も重要 060
   人は声の個人差にすばやく適応している 064
   空耳は大脳のトップダウン処理の産物 065
   音が音を消してしまうマスキング 068
   音が来る方向にはいろいろな手がかりがある 072
   耳の形は千差万別 075
   カクテルパーティー効果と地獄耳は高度な機能 076
   ハース効果のおかげでコンサートが楽しめる 078
   音声認識と他の情報の認識の仕組みには違いがある 080
4 コンピュータは人の真似をして音声を認識する
   音声から文字を解続する 083
   まず音声を「音のプリズム」に通して色分けする 086
   「ケプストラム」で色分けを滑らかにする 093
   「デルタケプストラム」で色の動きを取り出す 098
   DPマッチングで色が合っているテンプレートを選んで音声認識 100
5 統計的パターン認識が現在の音声認識の屋台骨
   統計的パターン認識って何だ 104
   音響モデルはHMMで表す 108
   HMMによる単語音声認識は簡単 113
   大語彙連続音声認識のためにはトライフォンHMMを使う 113
   HMMは音声を用いて自動的に作れる 118
   文法は統計的言語モデルで表す 120
6 音声認識システムを作ってみよう
   まず音声コーパスとテキストコーパスを集めてくる 126
   音声コーパスを使ってHMMを学習する 128
   テキストコーパスを使って言語モデルを学習する 130
   大規模テキストコーパスが得られないときは単語ネットワークで文法を表す 135
   大語彙連続音声認識を動かしてみよう 136
   人がしゃべっているところだけを取り出すには 142
   単語をどう読むかがわからないと音声認識ができない 144
   箸(はし)と橋(はし)の区別はできない 148
   音声認識の結果に信頼がおけるかどうかを測るには 150
   音声認識の性能は単語正解精度で測る 151
7 ロボットとの音声対話システムを作ってみよう
   音声対話システムは人工知能 156
   音声対話システムには三つのスタイルがある 158
   ウィザード・オブ・オズ法で音声コーパスを集める 160
   チューリングテストで対話システムが人間並みか評価する 161
8 コンピュータの音声認識の性能はどこまで人に近づいたか
   山に例えればまだ五合目くらいにある 163
   音声認識は三つの軸によって難しさが表せる 164
   コンピュータの音声認識の誤りは人の10倍 166
   音声の変動に頑健にするために 168
   音素モデルを自動的に適応させる 170
   言語モデルを自動的に適応させる 174
   読唇術を音声認識に使ってみる 176
9 いろいろな言語の音声認識の研究が行われている
   英語の音声認識と日本語の音声認識の難しさは同程度 179
   いろいろな言語によって音声認識の難しさが違う 180
   音声認識の研究が特に進んでいるのはアメリカと日本 184
   アメリカでは国防のための音声認識研究が行われている 185
   日本では話し言葉を対象とした音声認識研究がさかんに行われている 187
10 音声認識にはいろいろな使い方がある
   情報案内・予約システム 191
   コールセンターの業務効率化 191
   電話サービスにおけるコンプライアンスの自動チェック 192
   音声によるコンピュータヘのデータ入力 193
   PDAや携帯電話での音声認識 193
   放送ニュースなどへの字幕の自動付与194
   放送ニュースなどのアーカイブ化 197
   医師のカルテ作成 199
   会議録や講義録の自動作成 199
   語学教育への応用 200
   知能ロボットとの対話 201
   障がい者の補助 202
   音声ゲーーム 204
   音声翻訳システム 204
   音声の自動要約 205
   誰の声かの認識(話者認識) 208
   動物の声の認識 210
11 音声認識装置を使ってみませんか 212
12 コンピュータによる音声認識の将来 216
13 あとがき 222
用語解説 229
1 音声認識ができるコンピュータの実現を目指して
   世界で最初の音声認識装置はおもちゃの犬だった 016
   音声認識の主な用途はコンピュータとの対話と自動書き起こし 017
文献の複写および貸借の依頼を行う
 文献複写・貸借依頼