2013.03.08

    第5章は「カオスと縮小写像の干渉」である。まずは、ワイエルシュトラス関数とか、高木関数とか、縮小写像を使って繋ぎあわせて行く方法で作られた関数から入る。繋ぎ合せてあるから連続であるが、繋ぎ合せは両側の値を合わせるだけだから微分不可能となる。もっとも単純な構造がカツウラ関数で、これは(0,0)から(1,1)に引かれた線分から傾きを3倍して、区間を3等分して、真中の傾斜を逆にして写像して繋ぎ合わせる。これを繰り返す。これら「病的」と言われた関数を作るときに、一部分を除いておけばカントール集合が得られる。こればブツ切れなので連続ではないが、「特異連続」という概念を定義するとうまく納まる。それはもともとの除いておかない関数に対して一様に収束すればよい、という定義である。まあ、ご都合主義である。更に、微分可能性も定義を拡げる。カントール集合が作られていくときの残された各部分の両端は写像を繰り返すと収束し、その収束点も含めておけばカントール集合の全体となる。その収束点と両端との間の傾斜が写像の繰り返しに対して振動せずに収束すれば微分可能と定義する。さて、レスラーはカツウラ関数において写像の度に端を切り捨てて出来るカントール集合が「特異連続」で到るところ「微分不可能」であることを見出した。多分写像の度に中央部分の傾斜が逆転しながら傾斜が大きくなっていくからだろうと思うが、計算してみないと良く判らない。さて、カツウラ関数においては位相次元が 1 であり、ハウスドルフ次元がln5/ln3> 1 であるが、レスラーのカントール集合では、それぞれ 0 と ln(25/3)/ln5 > 1 となって、大小関係が逆である。これはリャプーノフ次元によって説明されているが、そもそも何のためにこんな事に拘るのかが良く理解できない。まあ、ともかく、特異連続で到るところ微分不可能なアトラクターのことを「SCNDアトラクター」という。ワイエルシュトラス関数で表されるアトラクターを与えるのがモザーの力学系ということであり、この場合は上記のような奇妙な次元関係は生じない。説明があるが、やはり何の為なのかが良く判らない。最後にモデルの構造安定性という話がでてくる。つまり、少々パラメータが変わったり、記号系が変わったりした位は同じモデルで説明しなくてはならない。それを満たすために位相同相が要請される。しかしどうもカオス系に対してはこの要請が適切でないようで、代替として津田氏が後で提案することになるのが、記述不安定性という尺度である。

    カオスと縮小写像の干渉、という意味であるが、一番単純な例がパイこね変換である。1×1の正方形を X 方向に2倍 Y 方向に半分になるように引き伸ばして X 方向に分割して並べて正方形にする。式で書くと、

 Xn+1=2・Xn(mod 1:1 以上であれば 1 を引く)
 Yn+1=b・Yn、if 0≦Xn<1/2、
 Yn+1=b・Yn+1−b、if 1/2≦Xn<1

ここでは、後々の為に1/2の代わりに b が入っている。0<b<1 である。これは X 方向だけを見ればカオスを生み出す写像であるが、Y 方向には縮小写像である。しかも、その写像が X に依存しているから、斜積変換ということになる。X 一定の部分だけを見れば Y 方向にはカントール集合となる。(抜けていない場合:b≧1/2 でも、カントール集合の定義としては、全不連結(任意の有限区間を含まない)で完全(全ての要素が集積点である)なものだからか?)X について1/2より小さい場合に 0、 1/2 以上の場合を 1 とすると、X のカオスは 0 と 1 からなる記号列を生成するが、それぞれ Y としては上下に別れて行くことになり、次の縮小で半分になるから、Y の特定の位置には X の初期位置に応じた 記号列が秩序立って(2進数と見なせば大きさの順に並んで)対応する( X の履歴が記録される)ことになる。これがカントールコーディングである。もう少し次元の高いモデルで考えるとその有用性が判るということで、津田氏は 1 次元のカオスで駆動される 3 次元の縮小写像を例に挙げている。

 Xn+1=a・Xn (mod 2π)
 Yn+1=b・Zn−c・cos(a・Xn)
 Zn+1=b・Zn+c・sin(a・Xn)
 Wn+1=b・Wn−c・sin(2a・Xn)

パラメータの典型例としては、a=9、b=0.3、c=0.7、ということである。そこではSCNDアトラクターを持つ。リャプーノフ次元はハウスドルフ次元に等しく、2.825 であり、位相次元 1 よりも 1 以上大きい。ということは、このアトラクターがより空間的に拡がっている、ということであり、そこに Xn の軌跡(来歴)がコードとして(位置情報として)保存されることになるが、それがノイズによってどこかに飛んでしまっても、行き先は殆どの場合にカントール集合でないので混同が起きない。また縮小写像なので、大きく外れても元に戻る。というのが情報記憶機構として優れた点である。勿論これらは互いにトレード・オフになるだろう。縮小率を小さく採れば前者に有利となり、大きく採れば後者に有利となる。津田氏はノイズに対する記憶の安定性については、合原氏のカオスニューロンモデルを使って検討している。そこでは、興奮性ニューロンをカオス的な振る舞いになるように調整しておいて、安定で縮小力学系となるように調整された、興奮性ニューロンと抑制性ニューロン(後者が前者を抑制する)の対への一方的な興奮性の結合を与えている。実際の脳は勿論単純ではないが、これらの2つのシステムに相当するものは脳の具体的な機能に適応して生成するニューロン集成体だろう、ということである。

    この原理(カオスで駆動される縮小写像系でのカントールコーディング)は実際に幾つか応用されているということである。谷淳がロボットの認知に応用している。池上高志は自意識の芽生えのモデルに応用している。呂はこのモデルをアナログ計算する集積回路にしている。津田は海馬の記憶機構のモデルへと展開することになる。

    第6章「脳のカントールコーディング」は現実の脳のモデル化の話である。フリーマンが実験的に解明した嗅球でのカオス的遍歴については、前梨状皮質が縮小写像を行っているのではないか、と考えている。しかし前梨状皮質から嗅球への結合があるために、斜積変換にならない。そもそも、そのような結合によって皮質から興奮を伝えられて初めて嗅球がカオスを生成するというのがフリーマンの発見したことだった。そこで津田は、前梨状皮質がカントールアトラクターが出来ている時にはその結合が切れていると考える。切れると嗅球はカオスによる探索を止めて、前梨状皮質は固定的になる、そうすると、嗅球に結合してカオスにする、という風にお互いに刺激しあいながら機能していると考える。これは何となくご都合主義的な解釈ではある。

    海馬の機能として実証されているのがエピソード記憶である。海馬を損傷すると3年位前までのエピソード記憶が消えるから、記憶の定着にはそれくらいの時間が必要なようである。手続き記憶等は影響されないし、短期記憶機能も残る。エピソード記憶というのは、個人的な経験の連鎖である。経験は連綿と連続しているのであるが、意識が関与してその情報の流れが切断される。大体25msec程度の長さ( γ 波として観測される)である。意識的な知覚にはそれくらいの時間が必要である。(無意識知覚には1msec程度でよい。)中隔から海馬の CA3 の抑制性ニューロンに抑制性入力があり、それが起動すると、抑制性ニューロンが抑えられて、CA3 のカオスはアトラクターに落ち込むが、中隔からの入力が無い場合にはカオス的遍歴を始める。こうして CA3 には次々と経験の塊がアトラクターとして生成されるが、あくまでその場限りの動的連想記憶である。そこから錐体細胞のシャーファー側枝を介して CA1 の縮小写像系を起動して、そこにカントールコードとして記録される。このプロセスは塚田等によって実験的に確認されたらしい。海馬の情報は新皮質に送られて処理されて再び海馬に戻ってくる。この時間はほぼ200msecであり、θ 波として観測される。新皮質では CA1 にコードされた経験の連鎖が事象列として修飾されると考えられるが、それが再度海馬に入ってきて経験の断片と一致すれば CA1 のコーディングが強化されていく。つまり、エピソード記憶というのは、新皮質にあるわけだが、それが定着するためには、何回も海馬に送られて再コーディングされることで記憶に相当するアトラクターを生み出すニューロンの結合を長期増強していかなくてはならない。

    CA1 には CA3 からのシャーファー側枝の他に内嗅皮質からの貫通繊維が来ている。この機能として津田が想定するのはプルースト効果である。必ずしもそのエピソードに繋がらない刺激から連鎖的に想起される。もう一つ津田が推測するのは、このエピソード記憶のカントールコードのような符号化が自然言語と結びつくことで演繹理論が可能になったのではないか、ということである。またそれが重要度に応じて(海馬の周辺には重要度を判断する中枢が多数ある)学習されることでカテゴリーへの分類が可能となり、それは事象の背後にあるルールとか要素間の関連付け、つまり帰納論理の原型ともなる。

  <その1へ>  <目次へ>  <その3へ>