2013.03.06

    津田一郎の「複雑系脳理論」(サイエンス社)は相互利用で福岡市総合図書館から借りる事が出来た。「ダイナミックな脳−カオス的解釈」を丁寧に説明したものと思っていたが、表現が数学的になって、説明自身は多数の引用文献を見なさい、という感じである。自ら勉強すべし、ということで、いかにも京大的である。

前半は著者が提唱した多自由度非線形力学系ではかなり一般的に出現する(らしい)「カオス的遍歴」と、縮小写像とカオスとの干渉によって生じる「カントールコーディング」、という2つの数学的概念が語られていて、これらが円滑に機能するには脳神経ネットワークにおける雑音要素が不可欠である、ということである。そして、その応用として、嗅覚系や海馬のモデルが説明されている。

後半は論理というものを力学系で表現することで、従来の伝統的な論理学をいわば外から把握する試みである。これによって、自覚するシステム、という形式で「意識」を拡張した概念が語られる。

非常に大雑把に言えば、津田氏は哲学を数学という言葉で語るのである。自然言語には当然ながら限界があり、数学言語による厳密性と拡張性を活用して、自己言及という哲学そのものの矛盾を乗り越えようという試みであるとも言える。

    まずは第3章のノイズの話であるが、神経伝達物質が放出される小胞がシナプス前膜に接触するのは確率的な現象であり、たとえ興奮していてもいつも神経伝達物質が放出されるわけではない。興奮していなければ、ランダムに放出されていて、それは伝達先には μV オーダーの影響しか与えないから無視できる。興奮すると mV オーダーの影響を与える。これがシナプスノイズであって、伝達式には係数として入る(積型)。もう一つのノイズは結合していない周辺のニューロンの電位揺らぎであって、樹状突起ノイズと呼ばれる。これは伝達先のニューロンの興奮閾値を変えるから、加算型である。以上を式で表現すると、

 yi(t+1)=fi(Σwij・yj(t)−θi)

となるが、ここで yj は興奮を伝える側のニューロン j の状態であり、wij はそれが受け取る側 i に与える影響係数(相互作用)である。結合しているニューロン j 全てに亘ってその和を取る記号がΣである。θi はその閾値であり、関数 fi の値が正であれば興奮が伝わり、負であれば伝わらない。ここで、積型ノイズは wij の変動であり、加算型ノイズは θi の変動である。つまり、時刻 t での j の興奮が 時刻 t+1 での i に伝わるかどうかを表現したこの式自身が確率的に揺らいでいる、ということであるから、津田氏はこれを「確率的切り替え写像」と考える。さて、ノイズというのはそもそも力学系で表現できる。例えば、ベルヌーイシフトである。

    z(t+1)=z(t)/p、if 0≦z(t)<p、
    z(t+1)=(1−z(t))/(1−p)、if p≦z(t)<1、

とすればよい。そうしておけば、ノイズによって写像が変わるような写像は、z の動く空間と y の動く空間との積空間における写像として再定義されることになる。 z によって y の写像が変化するというのは、「斜積変換」という数学の概念に相当する。これが津田氏のモデルには重要な意味を持つようである。数学辞典で調べると、それぞれの空間は測度(面積とか体積を数学的に一般化した概念)が定義されていて、それがこの変換(写像)によって保存される、ということである。

    この辺で思い出したのは昔会社の生産設備の問題を解析するために私が作った計算モデルである。水と油を混ぜて微粒子充填タンクに流し込むのであるが、隙間を格子に見立てて格子間を水または油が移動する、という力学モデルを作った。ただし、格子内部もモデル化している。水と油の間には界面張力が働くために、液の移動には余分な圧力が必要で、それは系全体の水と油の分布に依存するという恐ろしく非線形な力学系である。そのとき、境界条件(液の入り口側の多数の隙間)に水か油か、という確率を導入したのである。結果としては、条件に依存して極めてカオス的な巨視的相分離パターンあるいは整然としたパターンが出現した。スケール解析によって設備上の問題点を明確にすることが出来た。

    さて、カオス力学系は計算によって研究されるわけであるが、ノイズ要素によって左右される。アナログ計算機とディジタル計算機で異なる様相を示す場合があるのもノイズが絡んでいる。良く研究されているのは低次元系であって、ストレンジ・アトラクターとか、いろいろと運動状態が分類されているが、多次元系になると様相が直感的には掴めない。いろいろな方法でその多次元運動の一部を切り取らねばならないが、多数のアトラクターがあって、その密度が高いと、必ずしも計算が正しいとは言えなくなる(というか何が本質なのか判らなくなる)。その状況を打開するためにある程度のノイズが必要であることも判ってきた。そういったいろいろな計算の結果明らかになってきたのが「カオス的遍歴」である。これは多自由度力学系のカオスが実質的には多数の低次元アトラクターの間を遍歴するという様相として近似できそうだ、という発見(というか提案)である。また、アトラクターの中でも特異連続でいたるところ微分不可能なアトラクターが見つかり、脳の機能と関係している、という話になる。

    第4章は「カオス的遍歴」の話で、それを見出した大脳皮質のモデルの説明がある。これは「カオス的脳観」で説明したものだが、神経生理学的機能よりもむしろ解剖学的構造を参考にしている、という事である。説明が追加されているのは、アクソナルタフト細胞マルチノッチ細胞の役割である。これは錐体細胞の興奮によって、それを抑制する、という機能が与えられている(マスクする)。つまり錐体細胞をリセットする。シナプスノイズは確率的切り替え写像としてモデル化されていて、これが縮小 IFS(Iterated Function System)になるらしい。突然こんな用語が出てくるのだが、写像がある確率で停止する(x が x 自身に写像される)ということから縮小することになるのだろうか?よく判らない。そもそもストレンジ・アトラクターというのは、ある断面で見ていると、カオス運動が縮小写像で記述できる、というものであった。縮小写像というのは(パイこね変換の垂直方向のように)写像の度に距離が縮まっていく写像のことである。そうなると、初期の力学状態の集合は到るところ穴(つまり縮小によって残った部分)の開いた集合(つまりカントール集合)になる。そのカントール集合に不安定性を与えるのが、アクソナルタフト細胞とマルチノッチ細胞のマスク作用(錐体細胞を初期化する作用)ということらしい。良く判っていない細胞に随分と重要な役割を与えたものであるが、この不安定性によって、アトラクターがある次元に対して不安定となり、別のアトラクターへと遷移していくということらしい。(勿論これはカオス的遍歴のメカニズムの一つに過ぎないということである。)

次に、数学的にアトラクターを表現するのであるが、判ったようで判らない。当たり前のような気もする。カオス的遍歴で現れるアトラクターは本当の意味でのアトラクター(幾何的アトラクター)ではなくて、ある方向には逃げていくということで、ミルナーアトラクターということである。どんなものかはインターネットで調べてみると、一番簡単な一次元の力学系が例としてあった。写像 x(n+1)=f(x(n)) で y=f(x) という関数が、x の小さい時には y=x よりも上にあって、x=0.5 で y=x に接して、再び y=x より上に出る、というものである。このとき、x の小さな処から写像を始めると、x=0.5 に収束するからここが一応アトラクターであるが、他方、そこから少しでも大きくなれば今度は x=0.5 から離れていく。こうして少しでもノイズがあれば、擬似的なアトラクター間を遷移していくのである。

    最後に、脳、というか記憶を表現するために、作られてきたモデルを纏めてある。C1 が津田のモデルで、C2、C3、C4 が他の人達のモデルである。

C1. {自己想起型連想記憶神経回路、フィールドニューロンによる状態依存型変動場(樹状突起ノイズ)、局所的抑制性ニューロン、確率的切り替え写像(シナプスノイズ)}の4つが揃ったモデルは、記憶間のカオス的遷移を生成する。
C2. {自己想起型連想記憶神経回路、局所的抑制性ニューロン}の2つが揃ったモデルはカオス的遍歴的挙動を生成する。
C3. {不応期のあるカオス神経回路、自己想起型連想記憶}は記憶間の過渡的なカオス的遷移を生成する。
C4. {リミットサイクル想起型連想記憶神経回路、ニューロン1個あたりの結合数の減少}は記憶間のカオス的遷移を生成する。
C5. C1 と C4 において記憶間遷移は比較的低次元のカオスで起きる。
C6. C1,C2,C3,C4 いずれにおいても、ニューラルネットをカオス的遷移状態にすれば、入力が学習されたものかどうかが内部的に判別できる。
C7. C1 においては、カオス的遷移状態にすることで、記憶を想起しながら同時に学習が出来る。これはエピソード記憶に必要な要件となる。
C8. C1 においては、遷移の様相はブラウン運動との比較でいうと、入力に応じた方向性を持つより速い(時間の約1.2乗)拡散となる。想起はランダムに生じるのではなくて、記憶の連鎖がある。ただその連鎖の深さはマジックナンバー7±2である。短期記憶のマジックナンバーは最大リャプーノフ指数の逆数で与えられる。
C9. C1 においては、各記憶への滞在時間の分布は冪乗分布である。
C10. C1 においては、時間経過前後の相互情報量(相関係数)は冪的にゆっくり減少し、システムを結合させることで入力情報を短期記憶(ワーキングメモリー)できる。

    ということで C1 の津田モデルが一番良いのであろうが、特に C2 と比較すれば、その違いが 2種のノイズの取り込みにある、ということが判る。ただ、その理屈についてはこの本を読んだだけでは納得できないだろう。

  <一つ前へ>  <目次へ>  <その2へ>