close
1.

図書

図書
テレンス・J・セイノフスキー著 ; 藤崎百合訳
出版情報: 東京 : ニュートンプレス, 2019.4  8, 381p ; 21cm
所蔵情報: loading…
目次情報: 続きを見る
第1部 新たな着想による知能 : 機械学習の台頭
人工知能の復活
ニューラルネットワークの夜明け ほか
第2部 さまざまな学習方法 : カクテルパーティー問題
ホップフィールド・ネットワークとボルツマンマシン
誤差逆伝播法 ほか
第3部 テクノロジーと科学の衝撃 : 機械学習の将来
アルゴリズムの時代
チップス先生こんにちは(Hello,Mr.Chips) ほか
第1部 新たな着想による知能 : 機械学習の台頭
人工知能の復活
ニューラルネットワークの夜明け ほか
2.

図書

図書
合原一幸編著 ; 銅谷賢治 [ほか] 共著
出版情報: 東京 : オーム社, 1993.1  viii, 214p, 図版4p ; 22cm
所蔵情報: loading…
3.

図書

図書
Kenji Doya ... [et al.]
出版情報: Cambridge, Mass. : MIT Press, c2007  xiii, 326 p., [4] leaves of plates ; 24 cm
シリーズ名: Computational neuroscience
所蔵情報: loading…
目次情報: 続きを見る
Series Foreword
Preface
Introduction / I:
A Probability Primer / Kenji Doya ; Shin Ishii1:
What Is Probability? / 1.1:
Bayes Theorem / 1.2:
Measuring Information / 1.3:
Making an Inference / 1.4:
Learning from Data / 1.5:
Graphical Models and Other Bayesian Algorithms / 1.6:
Reading Neural Codes / II:
Spike Coding / Adrienne Fairhall2:
Spikes: What Kind of Code? / 2.1:
Encoding and Decoding / 2.2:
Adaptive Spike Coding / 2.3:
Summary / 2.4:
Recommended Reading / 2.5:
Likelihood-Based Approaches to Modeling the Neural Code / Jonathan Pillow3:
The Neural Coding Problem / 3.1:
Model Fitting with Maximum Likelihood / 3.2:
Model Validation / 3.3:
Combining Order Statistics with Bayes Theorem for Millisecond-by-Millisecond Decoding of Spike Trains / Barry J. Richmond ; Matthew C. Wiener3.4:
An Approach to Decoding / 4.1:
Simplifying the Order Statistic Model / 4.3:
Discussion / 4.4:
Bayesian Treatments of Neuroimaging Data / Will Penny ; Karl Friston5:
Attention to Visual Motion / 5.1:
The General Linear Model / 5.3:
Parameter Estimation / 5.4:
Posterior Probability Mapping / 5.5:
Dynamic Causal Modeling / 5.6:
Making Sense of the World / 5.7:
Population Codes / Alexandre Pouget ; Richard S. Zemel6:
Coding and Decoding / 6.1:
Representing Uncertainty with Population Codes / 6.3:
Conclusion / 6.4:
Computing with Population Codes / Peter Latham7:
Computing, Invariance, and Throwing Away Information / 7.1:
Computing Functions with Networks of Neurons: A General Algorithm / 7.2:
Efficient Computing; Qualitative Analysis / 7.3:
Efficient Computing; Quantitative Analysis / 7.4:
Efficient Coding of Visual Scenes by Grouping and Segmentation / Tai Sing Lee ; Alan L. Yuille7.5:
Computational Theories for Scène Segmentation / 8.1:
A Computational Algorithm for the Weak-Membrane Model / 8.3:
Generalizations of the Weak-Membrane Model / 8.4:
Biological Evidence / 8.5:
Summary and Discussion / 8.6:
Bayesian Models of Sensory Cue Integration / David C. Knul9:
Psychophysical Tests of Bayesian Cue Integration / 9.1:
Psychophysical Tests of Bayesian Priors / 9.3:
Mixture models. Priors, and Cue Integration / 9.4:
Making Decisions and Movements / 9.5:
The Speed and Accuracy of a Simple Perceptual Decision: A Mathematical Primer / Michael N. Shadlen ; Timothy D. Hanks ; Anne K. Churchland ; Roozbeh Kiani ; Tianming Yang10:
The Diffusion-to-Bound Framework / 10.1:
Derivation of Choice and Reaction Time Functions / 10.3:
Implementation of Diffusion-to-Bound Framework in the Brain / 10.4:
Conclusions / 10.5:
Neural Models of Bayesian Belief Propagation / Rajesh P.N. Rao11:
Bayesian Inference through Belief Propagation / 11.1:
Neural Implementations of Belief Propagation / 11.3:
Results / 11.4:
Optimal Control Theory / Emanuel Todorov11.5:
Discrete Control: Bellman Equations / 12.1:
Continuous Control: Hamilton-Jacobi-Bellman Equations / 12.2:
Deterministic Control: Pontryagin's Maximum Principle / 12.3:
Linear-Quadratic-Gaussian Control: Riccati Equations / 12.4:
Optimal Estimation: Kalman Filter / 12.5:
Duality of Optimal Control and Optimal Estimation / 12.6:
Optimal Control as a Theory of Biological Movement / 12.7:
Bayesian Statistics and Utility Functions in Sensorimotor Control / Konrad P. Kording ; Daniel M. Wolpert13:
Motor Decisions / 13.1:
Utility: The Cost of Using our Muscles / 13.3:
Neurobiology / 13.4:
Contributors / 13.5:
Index
Series Foreword
Preface
Introduction / I:
4.

図書

図書
今水寛 [ほか著]
出版情報: 東京 : 岩波書店, 2001.9  xxvi, 247p ; 22cm
シリーズ名: 認知科学の新展開 / 乾敏郎, 安西祐一郎編 ; 3
所蔵情報: loading…
5.

図書

図書
銅谷賢治 [ほか] 編
出版情報: 東京 : 朝倉書店, 2005.5  viii, 240p ; 22cm
所蔵情報: loading…
6.

図書

図書
牧野貴樹, 澁谷長史, 白川真一編著 ; 浅田稔 [ほか] 著
出版情報: 東京 : 森北出版, 2016.10  iv, 313p ; 22cm
所蔵情報: loading…
目次情報: 続きを見る
第1章 強化学習の基礎的理論 : 強化学習とは
強化学習の構成要素 ほか
第2章 強化学習の発展的理論 : 統計学習の観点から見たTD学習
強化学習アルゴリズムの理論性能解析とベイズ統計による強化学習のモデル化 ほか
第3章 強化学習の工学応用 : 高次元・実環境における強化学習
連続的な状態・行動空間への拡張:マルチロボットシステムへの適用 ほか
第4章 知能のモデルとしての強化学習 : 脳の意思決定機構と強化学習
内発的動機付けによるエージェントの学習と発達
第1章 強化学習の基礎的理論 : 強化学習とは
強化学習の構成要素 ほか
第2章 強化学習の発展的理論 : 統計学習の観点から見たTD学習
概要: ロボット制御、金融工学、言語処理、生産現場やサービスの最適化、最強の囲碁AIまで、あらゆる分野で威力を発揮しつつある強化学習。分野を代表する執筆陣が集い、その基礎・発展・応用を多面的に解説する。
7.

図書

東工大
目次DB

図書
東工大
目次DB
銅谷賢治著
出版情報: 東京 : サイエンス社, 2007.12  vi, 115p ; 26cm
シリーズ名: 臨時別冊・数理科学 ; . SGCライブラリ||SGC ライブラリ ; 60
所蔵情報: loading…
目次情報: 続きを見る
第1章 はじめに:脳を見る座標軸 1
   1.1 脳を理解する,とは 1
   1.2 空間のスケール 3
   1.2.1 行動とモジュールのレベル 3
   1.2.2 局所回路のレベル 3
   1.2.3 ニューロンのレベル 4
   1.2.4 シナプスのレベル 4
   1.2.5 分子のレベル 4
   1.3 進化と発達のスケール 5
   1.3.1 無脊椎動物の神経系 5
   1.3.2 脊椎動物の神経系 5
   1.3.3 小脳 6
   1.3.4 大脳基底核 7
   1.3.5 海馬 7
   1.3.6 大脳新皮質 7
   1.4 学習の枠組み 8
   1.4.1 教師あり学習 8
   1.4.2 強化学習 9
   1.4.3 教師なし学習 9
   1.4.4 学習の枠組みと脳の回路 9
   1.5 計算神経科学への招待 9
第2章 ニューロンのモデル 11
   2.1 ニューロンの構造 11
   2.2 McCulloch-Pittsモデル 12
   2.3 発火頻度モデル 13
   2.3.1 コネクショニストモデル 14
   2.3.2 リカレントネットワークモデル 14
   2.4 スパイクタイミングモデル 15
   2.5 積分発火モデル 16
   2.6 Hodgkin-Huxley型モデル 16
   2.7 FitzHugh-Nagumoモデル 18
   2.8 コンパートメントモデル 19
   2.9 ニューロインフォマテイクスヘの期待 20
第3章 ニューロンのデータ解析 22
   3.1 ニューロンの活動記録 22
   3.2 感覚刺激からスパイクへ 23
   3.3 スパイクから感覚刺激へ 25
   3.4 スパイクからスパイクへ 26
   3.5 スパイクから運動出力へ 27
   3.6 試行平均を超えて 28
第4章 教師あり学習 30
   4.1 教師あり学習 30
   4.1.1 単純パーセプトロン 30
   4.12 多層パーセプトロン 31
   4.2 最小二乗誤差学習 31
   4.3 汎化誤差と過学習 33
   4.3.1 最尤推定と最小二乗誤差 34
   4.3.2 パラメタの事前確率と事後確率 35
   4.3.3 ベイズ推定と周辺尤度 36
   4.4 脳の教師あり学習 37
第5章 小脳と内部モデル 38
   5.1 脳の教師はどこに? 38
   5.2 小脳の構造と神経回路 39
   5.3 小脳パーセプトロン仮説とシナプス長期減弱 40
   5.4 フィードバック誤差学習による逆モデル制御 40
   5.5 順モデルによる予測制御 42
   5.6 内部モデルによる認知機構 43
   5.6.1 脳内シミュレーションと思考 43
   5.6.2 計算結果のモジュール化 44
   5.7 内部モデル学習に必要な回路機構 44
   5.7.1 平行線維入力の基底関数表現 44
   5.7.2 登上線維の誤差表現 45
   5.7.3 シナプス可塑性の時間窓 46
   5.8 内部モデルの可能性 46
第6章 強化学習 49
   6.1 強化学習とは 49
   6.2 即時報酬課題 49
   6.3 遅延報酬課題 51
   6.4 履歴を使った学習 51
   6.5 状態価値関数とBellman方程式 52
   6.6 行動価値関数による学習 53
   6.7 Actor-CriticとPolicy Gradient 54
   6.8 強化学習から脳へ 55
第7章 大脳基底核と報酬予測 57
   7.1 強化学習の脳機構 57
   7.2 大脳基底核の回路 57
   7.3 大脳基底核のニューロン特性 58
   7.3.1 中脳ドーパミンニューロンとTD誤差 59
   7.3.2 線条体ニューロン活動の報酬依存性 60
   7.3.3 大脳皮質一線条体シナプスのドーパミン依存の可塑性 60
   7.4 大脳基底核の強化学習モデル 61
   7.5 線条体ニューロンの行動価値表現 62
   7.6 大脳基底核とそれ以外 63
第8章 教師なし学習 65
   8.1 教師なし学習とは 65
   8.2 情報の最大化と冗長性の削減 65
   8.2.1 主成分分析 66
   8.2.2 独立成分分析 67
   8.2.3 スパース表現 68
   8.3 学習量子化 69
   8.3.1 K-means 69
   8.3.2 混合正規分布モデル 70
   8.3.3 自己組織化マップ 71
   8.4 教師なし学習と脳 71
第9章 大脳皮質 73
   9.1 大脳皮質の計算とは 73
   9.2 大脳皮質の回路構造 73
   9.3 大脳皮質ニューロンの特徴選択性 74
   9.4 教師なし学習モデル 74
   9.4.1 自己組織化モデル 74
   9.4.2 情報量最大化 75
   9.4.3 報酬による重み付け 75
   9.5 ボピュレーション表現とベイズ推定 76
   9.5.1 分布推定モデル 77
   9.5.2 Belief propagationモデル 77
   9.6 教師なし学習のその先 78
第10章 メタ学習 80
   10.1 学習のしかたの学習 80
   10.2 教師あり学習のメタ学習 80
   10.2.1 学習速度係数α 80
   10.2.2 周辺尤度によるモデル選択 81
   10.3 強化学習のメタ学習 82
   10.3.1 行動選択の逆温度β 82
   10.3.2 報酬予測の割引率γ 83
   10.4 教師なし学習のメタ学習 84
   10.5 異なるモジュールの並列学習 84
   10.6 メタ学習から脳へ 85
第11章 神経修飾物質系 86
   11.1 メタ学習の脳機構は? 86
   11.2 神経修飾物質系 86
   11.3 ドーパミン系:報酬予測の増減δ 87
   11.4 アセチルコリン系:学習速度係数α 88
   11.5 ノルアドレナリン系:動作選択の逆温度β 88
   11.6 セロトニン系:報酬評価の時間割引率γ 89
   11.7 脳のメタ学習機構と神経修飾物質系の相互作用モデル 90
第12章 階層モジュール学習 92
   12.1 起き上がりロボットの学習 92
   12.2 階層モジュール学習方式 94
   12.2.1 階層混合エキスパート 94
   12.2.2 MOSAICアーキテクチャ 95
   12.2.3 階層強化学習 95
   12.2.4 Importance samplingによる並列学習 95
   12.3 脳の階層モジュール学習 96
   12.3.1 モジュールの選択 96
   12.3.2 モデルベースとモデルフリーのアーキテクチャ 96
   12.4 脳のグローバルな組織化原理は? 97
第13章 協調行動とコミュニケーション 99
   13.1 脳と社会環境 99
   13.2 協調行動の計算理論 99
   13.3 行動理解と見まね学習 100
   13.4 コミュニケーションと言語 102
   13.5 言語の起源に向けて 104
第14章 計算神経科学の到達点と今後 106
   14.1 脳はどこまでわかったか 106
   14.2 ニューロン,分子,遺伝子 106
   14.3 局所回路と情報表現 109
   14.4 脳の大域回路と行動 109
   14.5 社会脳から言語へ 110
   14.6 おわりに 110
索引 112
第1章 はじめに:脳を見る座標軸 1
   1.1 脳を理解する,とは 1
   1.2 空間のスケール 3
8.

図書

東工大
目次DB

図書
東工大
目次DB
銅谷賢治 [ほか] 編
出版情報: 東京 : 朝倉書店, 2002.3  ix, 216p ; 22cm
所蔵情報: loading…
目次情報: 続きを見る
I.プロローグ 1
1.神経細胞による情報表現(銅谷賢治・伊藤浩之) 3
   1.1 発火頻度表現 6
   1.2 タイミング表現 7
2.ニューロンのダイナミクスと数理モデル(銅谷賢治) 9
   2.1 Hogdkin-Huxley型モデル 9
   2.2 integrate-and-fireモデル 11
   2.3 inter-spike intervalモデル 12
   2.4 コネクショニストモデル 13
3.エントロピーと情報量(銅谷賢治) 15
   3.1 確率分布とエントロピー 15
   3.2 条件付き確率と相互情報量 16
   3.3 相互相関と相互情報量 18
II.大脳視覚野の情報表現の実際 23
4.視覚における脳内表現(小松英彦) 25
   4.1 これまでの研究 25
   4.2 最近の研究 37
5.一次視覚野の特徴抽出性と刺激文脈依存性(尾関宏文・赤崎孝文・佐藤宏道) 42
   5.1 特徴抽出性と形成メカニズム 42
   5.2 刺激文脈依存性 46
   a.受容野外刺激による反応修飾 46
   b.広域情報統合の神経回路 49
   5.3 一次視覚野の出力調節の意義 51
6.側頭葉ニューロンの情報量解析(菅生康子) 55
   6.1 側頭葉の顔に応答するニューロン 55
   6.2 ニューロンの応答に表現される情報とその定量的な解析法 56
   6.3 サル側頭葉のニューロンは顔についての複数の情報を時間を分けてコードしている 57
   6.4 実験データから情報量を算出する際の問題点 64
III.脳の情報表現への統計的アプローチ 67
7.脳内情報表現への情報理論的アプローチ(阪口 豊・樺島祥介) 69
   7.1 古典的なモデル 69
   a.特徴抽出細胞の自己形成モデル 69
   b.トポグラフィの自己形成モデル 70
   7.2 情報理論に基づくモデル化 71
   a.冗長度圧縮原理 72
   b.確率モデルと情報量 73
   c.認識モデルと生成モデル 74
   d.最大/最小化原理 75
   7.3 情取理論に基づいた視覚野における受容野形成のモデル 78
   a.Linskerのモデル 78
   b.OlshausenとFieldのモデル 80
   c.RaoとBallardによるpredictive coding model 82
8.隠れ状態とマルコフランダム場(岡田真人) 87
   8.1 境界ベース結合MRFモデル 89
   8.2 領域ベース結合MRFモデル 91
   8.3 双方向性相互作用におけるシナプス切断 92
   8.4 位相を隠れ変数としてもつ領域ベースMRFモデル 93
   8.5 提案モデルの計算機シミュレーション 94
   8.6 シングルニューロン(コラム)での実現 96
9.隠れ状態最尤推定と反復解法 EMアルゴリズムとWake-Sleepアルゴリズム (池田思朗) 98
   9.1 隠れ変数 98
   a.隠れ変数の定義 98
   b.混合正規分布 99
   c.Helmholtzマシン 100
   9.2 隠れ変数をもつモデルのパラメータ推定 101
   a.最尤推定 101
   b.EMアルゴリズム 103
   c.Wake-Sleepアルゴリズム 104
IV.ニューロンと局所回路のダイナミクス 107
10.シナプスにおける情報処理(深井朋樹・高木 博) 109
   10.1 ダイナミックシナプス 110
   a.減衰シナプス 110
   b.増強シナプス 111
   c.減衰シナプスの機能的役割 112
   10.2 スパイク時間依存のLTP/LTD 114
   10.3 海馬シナプスでのLTP/LTDの実体解明の現状 115
   a.E-LTP誘導の細胞内機序とその生理学の実体 116
   b.LTDの細胞内機序とその生理学的実体 116
   c.L-LTP誘導の細胞内機序とその生理学的実体 117
11.大脳皮質の錐体細胞とガンマ周波数帯のバースト発火 FRBニューロンのモデル (姜 英男・青柳富誌生・深井朋樹) 120
   11.1 ガンマ周波数帯の同期振動 120
   11.2 大脳皮質の錐体細胞とchattering発火 121
   a.持続性Na電流仮説 124
   b.カルシウム依存性カチオン電流仮説 125
   11.3 Chatteringニューロンの数理モデル 127
12.大脳皮質の神経回路(金子武嗣) 131
   12.1 大脳皮質の外観 132
   12.2 大脳皮質の構成要素:ニューロンの種類 134
   12.3 大脳皮質の局所回路 136
   12.4 大脳皮質の神経回路の原則 143
13.位相ダイナミクスを用いた同期現象の解析(青柳富誌生) 146
   13.1 ニューロンの数理モデル 146
   13.2 位相ダイナミクスへの自由度の逓減 149
   a.位相反応曲線 150
   b.同期・非同期 152
   13.3 関連する話題 155
   a.イオンチャネルと同期・非同期の関連 155
   b.連想記憶モデルへの応用の解析 155
V.発火タイミングによる情報表現 157
14.多細胞同時記録実験の必要性とその実際(櫻井芳雄) 159
   14.1 多細胞同時記録実験の目的 160
   a.ニューロン活動を記録する意味 161
   b.単一ニューロンとニューロン集団 162
   c.1つの可能性:セル・アセンブリ 163
   14.2 多細胞同時記録実験の方法 164
   a.記録電極の作製と選定 165
   b.電極の配列と操作 166
   c.データの取込み 168
   d.データ解析の前提 170
15.多細胞同時記録データの統計解析法(伊藤浩之) 173
   15.1 従来の解析法と特徴 173
   a.ラスター表示 173
   b.peri-stimulus time histogram(PSTH) 174
   c.inter spike interval histogram(ISIH) 174
   d.auto-correlogram 175
   e.刺激性相関と神経性相関 177
   f.cross-correlogram 178
   15.2 新しい解析法とその目指すもの 179
   a.JPSTH 179
   b.unitary event analysis 182
16.皮質ダイナミクスと神経計算機構 実験・解析・モデル (Ad Aertsen・伊藤浩之) 186
   16.1 大脳皮質とはどのようなシステムか 186
   a.細胞集団(セル・アセンブリ)の重要性 186
   b.解剖学的結合から機能的結合へ 187
   16.2 機能的結合の文脈依存性およびダイナミクス 188
   a.モデルの説明 189
   b.機能的結合の文脈依存性 190
   c.機能的結合のダイナミクス 192
   d.機能的結合の背景入力依存性 194
   16.3 実験データにみられる相関イベント 195
   a.synfire chain 195
   b.覚醒サルの運動皮質での記録にみられたunitary event 197
   16.4 同期スパイクの伝播ダイナミクス 200
   a.synfire chainの安定性 200
   b.モデルニューロンの説明 202
   c.パルスパケットの安定性解析 202
   d.パルスパケットの安定性解析(ネットワーク) 203
   e.パルスパケットの同期の精度 205
   16.5 学生との質疑応答(一部抜粋) 206
   エピローグ 211
   索引 213
I.プロローグ 1
1.神経細胞による情報表現(銅谷賢治・伊藤浩之) 3
   1.1 発火頻度表現 6
文献の複写および貸借の依頼を行う
 文献複写・貸借依頼