close
1.

図書

図書
Sumio Watanabe
出版情報: Boca Raton : CRC Press, c2018  ix, 319 p. ; 24 cm
シリーズ名: A Chapman & Hall book
所蔵情報: loading…
2.

電子ブック

EB
渡辺澄夫著
出版情報: 東京 : コロナ社, 2012.4  1 online resource (vii, 226p)
所蔵情報: loading…
3.

図書

図書
渡辺澄夫著
出版情報: 東京 : コロナ社, 2012.4  vii, 226p ; 21cm
所蔵情報: loading…
4.

図書

東工大
目次DB

図書
東工大
目次DB
Sumio Watanabe
出版情報: Cambridge, UK : Cambridge University Press, 2009  viii, 286 p. ; 24 cm
シリーズ名: Cambridge monographs on applied and computational mathematics ; 25
所蔵情報: loading…
目次情報: 続きを見る
1 Introduction 1
   1.1 Basic concepts in statistical learning 1
   1.2 Statistical models and learning machines 10
   1.3 Statistical estimation methods 18
   1.4 Four main formulas 26
   1.5 Overview of this book 41
   1.6 Probability theory 42
2 Singularity theory 48
   2.1 Polynomials and analytic functions 48
   2.2 Algebraic set and analytic set 50
   2.3 Singularity 53
   2.4 Resolution of singularities 58
   2.5 Normal crossing singularities 66
   2.6 Manifold 72
3 Algebraic geometry 77
   3.1 Ring and ideal 77
   3.2 Real algebraic set 80
   3.3 Singularities and dimension 86
   3.4 Real projective space 87
   3.5 Blow-up 91
   3.6 Examples 99
4 Zeta function and singular integral 105
   4.1 Schwartz distribution 105
   4.2 State density function 111
   4.3 Mellin transform 116
   4.4 Evaluation of singular integral 118
   4.5 Asymptotic expansion and b-function 128
5 Empirical processes 133
   5.1 Convergence in law 133
   5.2 Function-valued analytic functions 140
   5.3 Empirical process 144
   5.4 Fluctuation of Gaussian processes 154
6 Singular learning theory 158
   6.1 Standard form of likelihood ratio function 160
   6.2 Evidence and stochastic complexity 168
   6.3 Bayes and Gibbs estimation 177
   6.4 Maximum likelihood and a posteriori 203
7 Singular learning machines 217
   7.1 Learning coefficient 217
   7.2 Three-layered neural networks 227
   7.3 Mixture models 230
   7.4 Bayesian network 233
   7.5 Hidden Markov model 234
   7.6 Singular learning process 235
   7.7 Bias and variance 239
   7.8 Non-analytic learning machines 245
8 Singular statistics 249
   8.1 Universally optimal learning 249
   8.2 Generalized Bayes information criterion 252
   8.3 Widely applicable information criteria 253
   8.4 Singular hypothesis test 258
   8.5 Realization of a posteriori distribution 264
   8.6 From regular to singular 274
   Bibliography 277
   Index 284
1 Introduction 1
   1.1 Basic concepts in statistical learning 1
   1.2 Statistical models and learning machines 10
5.

図書

図書
渡辺澄夫 [ほか] 著
出版情報: 東京 : 森北出版, 2014.4  iv, 172p ; 21cm
所蔵情報: loading…
目次情報: 続きを見る
第1章 ランダム行列への入り口 : ランダム行列とは
行列と確率の復習 ほか
第2章 ランダム行列の普遍性 : 準備
固有値密度の普遍性 ほか
第3章 ランダム行列への情報統計力学的アプローチ : レプリカ法による最大固有値問題の解析:主成分分析を例として
漸近固有値分布 ほか
第4章 情報学からのランダム行列入門 : 歴史
いくつかの応用 ほか
第5章 ランダム行列と学習理論 : ウィシャート分布
統計モデルの特異性 ほか
第1章 ランダム行列への入り口 : ランダム行列とは
行列と確率の復習 ほか
第2章 ランダム行列の普遍性 : 準備
概要: 立ち現れる普遍性。広がる応用。物理学、学習理論、情報学、...さまざまな分野で顔を出す「ランダム行列」。その数理を紐解き統計物理・確率論との関わりも論じる。ランダム行列に初めて出会う人から研究で使う人にまで、広く役立つ一冊。
6.

図書

東工大
目次DB

図書
東工大
目次DB
渡辺澄夫著
出版情報: 東京 : 森北出版, 2006.4  vi, 218p ; 22cm
シリーズ名: 知能情報科学シリーズ : intellectual information science series
所蔵情報: loading…
目次情報: 続きを見る
第1章 学習の数理 1
   1.1 はじめに 1
    1.1.1 学習理論とは何か 1
    1.1.2 学習モデルの特異点 5
   1.2 本書の構成 10
    1.2.1 特異点 10
    1.2.2 代数幾何 12
    1.2.3 超関数 13
    1.2.4 経験過程 15
    1.2.5 学習理論 16
    1.2.6 学習理論と諸科学 17
第2章 特異点 19
   2.1 はじめに 19
   2.2 多項式と解析関数 23
   2.3 代数的集合と解析的集合 26
   2.4 臨界点と特異点 30
   2.5 特異点解消定理 35
   2.6 正規交差特異点 43
   2.7 特異点解消定理の応用 48
   2.8 多様体 50
第3章 代数幾何 53
   3.1 はじめに 53
    3.1.1 ブローアップの幾何 53
    3.1.2 ブローアップの代数 56
    3.1.3 ブローアップの解析 57
    3.1.4 代数的集合のブローアップ 59
   3.2 多項式環のイデアル 60
   3.3 代数的集合とイデアル 64
   3.4 射影空間 72
   3.5 代数的集合の特異点 73
   3.6 特異点解消のアルゴリズム 81
第4章 超関数 85
   4.1 はじめに 85
   4.2 超関数論の基礎 89
   4.3 超関数とゼータ関数 95
   4.4 メリン変換 100
   4.5 漸近展開 103
   4.6 一般形の漸近展開 114
第5章 経験過程 118
   5.1 はじめに 118
   5.2 測度空間・確率空間 121
   5.3 法則収束 126
   5.4 関数空間に値をとる解析関数 131
   5.5 経験過程 136
   5.6 対数尤度比とカルバック情報量 147
第6章 学習理論 154
   6.1 はじめに 154
   6.2 確率的複雑さの漸近挙動 159
   6.3 汎化誤差の漸近挙動 165
   6.4 学習係数 170
第7章 学習理論と諸科学 181
   7.1 はじめに 181
   7.2 学習と情報科学 182
    7.2.1 学習モデルの特異性 182
    7.2.2 3層神経回路網 184
    7.2.3 混合分布 187
    7.2.4 ベイズネットワーク 189
    7.2.5 隠れマルコフモデル 190
    7.2.6 事後分布の実現法 192
   7.3 学習と脳科学 193
    7.3.1 特異点の影響 193
    7.3.2 バイアスとバリアンス 200
   7.4 学習と統計科学 206
    7.4.1 最尤法と事後確認率最大化法 206
    7.4.2 対数尤度比関数の挙動 207
文献紹介 210
索引 217
第1章 学習の数理 1
   1.1 はじめに 1
    1.1.1 学習理論とは何か 1
7.

図書

東工大
目次DB

図書
東工大
目次DB
渡辺澄夫, 村田昇共著
出版情報: 東京 : コロナ社, 2005.4  v, 177p ; 21cm
所蔵情報: loading…
目次情報: 続きを見る
第Ⅰ部 確立
1 確立空間
   1.1 有限集合と可算集合の確率空間 2
   1.2 実数上の確率空間 9
   1.3 一般化された確率密度関数 17
   1.4 一般の確率空間 20
   章末問題 22
2 確率変数
   2.1 確率変数の定義と概念 23
   2.2 確率変数の関係 31
   2.3 独立性 32
   2.4 確率変数の収束 34
   章末問題 36
3 平均と分散
   3.1 平均と分散の定義 38
   3.2 チェビシェフの不等式 42
   3.3 イェンセンの不等式 44
   章末問題 46
4 特性関数
   4.1 特性関数の定義 48
   4.2 特性関数とモーメント 54
   4.3 特性関数と独立性 57
   章末問題 59
5 条件付確率とベイズの定理
   5.1 同時確率と条件つき確率 60
   5.2 ベイズの定理と逆推論 65
   章末問題 69
6 中心極限定理
   6.1 大数の法則 71
   6.2 法則収束とは 75
   6.3 中心極限定理とは 79
   章末問題 85
7 カルバック情報量
   7.1 カルバック情報量の定義と性質 87
   7.2 確率変数の推測 91
   7.3 確率変数の実現 93
   章末問題 97
8 参考文献の紹介
第Ⅱ部 統計
9 統計的推測の考え方
   9.1 統計における推定問題 102
   9.2 推定量と推定値 105
   9.3 推定量の不遍性と分散 107
   章末問題 112
10 平均値の不遍推定
   10.1 誤差の分布の形がわからない場合 113
   10.2 誤差の分布の形がわかる場合 116
   章末問題 129
11 最尤推定量
   11.1 最尤推定の考え方 131
   11.2 最尤推定量の一致性 133
   11.3 最尤推定の有効性 135
   11.4 クラメール・ラオの不等式 137
   章末問題 141
12 仮説検定
   12.1 仮説検定の枠組み 142
   12.2 さまざまな検定統計量 148
   12.3 過誤と検出力 154
   12.4 ネイマン・ピアソンの補題 157
   章末問題 160
13 補遺
   13.1 文献 162
   13.2 ベイズ統計 163
   13.2.1 ベイズ統計の考え方 164
   13.2.2 ベイズ統計による推定と検定 165
   13.2.3 ベイズ統計の問題点 166
章末問題解答 168
索引 176
第Ⅰ部 確立
1 確立空間
   1.1 有限集合と可算集合の確率空間 2
8.

図書

東工大
目次DB

図書
東工大
目次DB
渡辺澄夫著
出版情報: 東京 : 共立出版, 2001.7  x, 187p ; 22cm
シリーズ名: データサイエンス・シリーズ / 柴田里程 [ほか] 編集委員 ; 6
所蔵情報: loading…
目次情報: 続きを見る
第1章 学習と確率
   1.1 学習とは 1
   1.2 確率変数と情報科学 3
   1.2.1 離散値をとる確率変数 3
   1.2.2 連続値をとる確率変数 5
   1.2.3 確率変数の変換 8
   1.2.4 平均と分散 10
   1.3 確率と推論 13
   1.3.1 同時確率密度関数と関係 13
   1.3.2 推論と条件つき確率 14
   1.3.3 回帰関数 17
   1.3.4 独立性 18
   1.4 確率変数の距離 20
第2章 学習と統計的推測
   2.1 データと学習 23
   2.1.1 学習とは 23
   2.1.2 同時確率密度関数の学習 24
   2.1.3 学習法の意味 27
   2.1.4 学習の尺度 28
   2.1.5 条件つき確率密度関数の推定法 29
   2.1.6 回帰関数の推定 32
   2.1.7 パターン識別関数の推定 33
   2.1.8 関数近似誤差と統計誤差 36
   2.2 最適化法 36
   2.2.1 最急降下法 36
   2.2.2 確率項をもつ最急降下法 42
第3章 複雑な学習モデル
   3.1 関数近似モデル 47
   3.1.1 関数近似モデルの定義 47
   3.1.2 関数近似モデルの学習 49
   3.1.3 3層パーセプトロン 50
   3.1.4 球形基底関数,RBF 66
   3.2 競合学習 69
   3.2.1 確率競合モデル 69
   3.2.2 混合正規モデルの推論 71
   3.2.3 混合分布の最急降下法 72
   3.2.4 確率競合モデルとEMアルゴリズム 74
   3.2.5 EMアルゴリズム 74
   3.2.6 ノンパラメトリック学習 78
   3.2.7 自己組織化写像 81
   3.3 ボルツマンマシン 84
   3.3.1 ボルツマンマシンの定義 84
   3.3.2 ボルツマンマシンの推論 86
   3.3.3 平衡状態の実現 87
   3.3.4 ボルツマンマシンの学習 89
   3.3.5 平均場近似 91
   3.3.6 確定的ボルツマンマシン 93
   3.4 サポートベクトルマシン 94
   3.4.1 サポートベクトルマシンの定義 94
   3.4.2 マージン最大化 96
   3.4.3 高次元埋込みと核関数 99
第4章 学習の基礎理論
   4.1 隠れ層とパラメータの特定可能性 101
   4.2 統計的正則モデル 104
   4.2.1 最尤法の学習誤差と予測誤差 104
   4.2.2 最尤法におけるモデル選択 108
   4.2.3 ベイズ法の汎化誤差と確率的複雑さ 110
   4.2.4 ベイズ法におけるモデル選択 113
   4.3 特異計量をもつモデルの学習理論 116
   4.3.1 超完全基底と特定不能性 116
   4.3.2 学習モデルのゼータ関数 118
   4.3.3 特異点解消定理と学習曲線 125
   4.3.4 最尤法と経験確率過程 134
   4.4 統計物理学の方法 139
   4.4.1 レブリカ法 140
   4.4.2 熱力学的極限 145
   4.5 学習理論の関連する分野 150
   4.5.1 データサイエンスとの関係 151
   4.5.2 計算論的知能との関係 153
第5章 確率・統計の基礎知識
   5.1 確率論における概念と方法 155
   5.1.1 不等式 155
   5.1.2 特性関数 156
   5.1.3 確率変数の収束 158
   5.1.4 大数の法則と中心極限定理 159
   5.1.5 ウィッシャート分布 163
   5.1.6 順序統計量 164
   5.1.7 経験確率過程 165
   5.2 学習と関数空間論 169
   5.2.1 関数空間,距離,稠密性 169
   5.2.2 稠密性と多項式 170
   5.2.3 3層パーセプトロンによる関数近似 173
   5.2.4 次元の呪いと適応基底 174
   参考文献 177
   索引 185
第1章 学習と確率
   1.1 学習とは 1
   1.2 確率変数と情報科学 3
9.

図書

東工大
目次DB

図書
東工大
目次DB
渡辺澄夫 [ほか] 共著
出版情報: 東京 : 森北出版, 2005.7  vii, 195p ; 22cm
所蔵情報: loading…
目次情報: 続きを見る
第1章 例からの学習
   1.1 学習システムとは 1
   1.2 学習システムの現状 3
   1.3 学習理論の枠組み 6
   1.4 新しい学習システムと学習理論 9
   1.4.1 構造をもつ学習モデル 9
   1.4.2 超高次元空間 10
   1.4.3 確率変数の関係 11
   1.4.4 学習例の最適化 12
   1.4.5 学習と統計力学 13
   1.4.6 学習と現代数学 14
   1.5 学習の未来形 16
   1.5.1 学習システムの未来へ 16
   1.5.2 学習理論の未来へ 17
   参考文献 19
第2章 多層パーセプトロン
   2.1 はじめに 20
   2.2 多層パーセプトロンの関数近似能力 21
   2.2.1 多層パーセプトロン 21
   2.2.2 連続関数の一様近似 22
   2.2.3 次元の呪いの回避 23
   2.2.4 べき多項式の近似 24
   2.3 多層パーセプトロンの学習 25
   2.31 学習 25
   2.3.2 学習の加速化 26
   2.3.3 最急降下法の停滞 28
   2.3.4 多層パーセプトロンの応用 29
   2.4 多層パーセプトロンの汎化性 30
   2.4.1 汎化誤差 30
   2.4.2 BiasとVariance 31
   2.4.3 統計的モデル選択 33
   2.4.4 Early stopping と正則化 34
   2.4.5 特異モデルとしての多層パーセプトロン 36
   2.5 おわりに 38
   参考文献 38
第3章 カーネルマシン
   3.1 識別問題と線形識別器 46
   3.2 カーネルトリック 47
   3.3 サポートベクタマシン(SVM) 49
   3.4 正則化とソフトマージン 52
   3.4.1 正則化 53
   3.4.2 ソフトマージン 54
   3.5 SVMの汎化能力 55
   3.5.1 PAC学習の枠組み 56
   3.5.2 SVMの汎化誤差 58
   3.5.3 SVMのパラメータの決定法 58
   3.6 カーネルマシンの一般性 59
   3.6.1 再生核ヒルペルト空間 59
   3.6.2 レプリゼンタ定理 60
   3.7 いろいろなカーネル 61
   3.7.1 カーネルの変換と組み合わせ 62
   3.7.2 文字列に対するカーネル
   3.7.3 グラフのノードに対するカーネル 64
   3.7.4 分布に対するカーネル 65
   3.7.5 カーネルの修復 66
   3.8 いろいろなカーネルマシン 66
   3.8.1 SVMの拡張 66
   3.8.2 カーネル密度推定,動径基底関数 70
   3.8.3 正規過程 70
   3.8.4 その他のカーネルマシン 71
   3.9 おわりに 72
   参考文献 73
第4章 ベイジアンネットワーク
   4.1 はじめに 75
   4.2 ベイジアンネットワーク 76
   4.3 ベイジアンネットワークの確率推論 80
   4.3.1 確率推論アルゴリズム 81
   4.4 ベイジアンネットワークの統計的学習 86
   4.4.1 条件つき確率の学習 86
   4.4.2 グラフ構造の学習 87
   4.5 ベイジアンネットワークの応用 88
   4.5.1 障害診断への応用 88
   4.5.2 ユーザーモデリングヘの応用 89
   4.5.3 ベイジアンネットワークソフトウェア 91
   4.6 おわりに 95
   参考文献 95
第5章 能動学習の理論
   5.1 能動的な学習とは何か 98
   5.2 確率的なデータからの入出力関係の学習 99
   5.2.1 確率的な動作をするシステム 100
   5.2.2 入出力関係の学習 101
   5.2.3 学習機械の汎化能力 104
   5.3 能動学習の方法一汎化誤差を最小にするデータ採取点 105
   5.3.1 漸近理論による汎化誤差の期待値の推定 105
   5.3.2 汎化誤差を小さくする能動学習 -線形の場合- 108
   5.3.3 汎化誤差を小さくする能動学習 -一般の場合- 110
   5.3.4 確率的な能動学習 112
   5.3.5 その他の規準による最適データ採取点探索 114
   5.4 能動学習とモデル選択 117
   5.4.1 不適合なモデルのもとでの能動学習の悪影響 118
   5.4.2 モデル選択を組み合わせた能動学習 119
   5.5 ニューラルネットの能動学習 121
   5.6 能動学習の応用例 124
   5.7 おわりに 126
   付録1 Caxatheodory の定理 128
   付録2 行列式に関する関係式 129
   参考文献 129
第6章 アンサンブル学習の統計力学
   6.1 はじめに 132
   6.2 パーセプトロンのオンライン学習の理論 135
   6.2.1 パーセプトロン 135
   6.2.2 教師-生徒の定式化 137
   6.2.3 オーバーラップと汎化誤差 139
   6.2.4 学習アルゴリズム 142
   6.2.5 オーダーパラメータのダイナミクス 144
   6.3 アンサンブル学習のオンライン学習の理論 148
   6.3.1 アンサンブル学習 148
   6.3.2 学習アルゴリズム 150
   6.3.3 汎化誤差 151
   6.3.4 オーダーパラメータのダイナミクス 152
   6.4 線形パーセプトロンのアンサンブル学習 153
   6.4.1 汎化誤差とオーダーパラメータダイナミクス 153
   6.4.2 生徒の結合荷重が統計的に一様である場合 154
   6.4.3 生徒の結合荷重が統計的に一様でない場合 155
   6.5 非線形パーセプトロンのアンサンブル学習 157
   6.6 まとめ 158
   参考文献 159
第7章 特異点解消と学習システムヘの応用
   7.1 定義および特異点解消定理 162
   7.2 プローアップ 165
   7.3 ニュートン図形を用いた特異点解消 172
   7.4 ベイズ学習理論および特異点解消定理の応用 185
   参考文献 191
   索 引 193
第1章 例からの学習
   1.1 学習システムとは 1
   1.2 学習システムの現状 3
文献の複写および貸借の依頼を行う
 文献複写・貸借依頼