生成AIを一口で言えば、「与えられた問いかけに応じて、いかにも実際にありそうな情報を作り出す」ということである。どうしてそのような感じを受けるかというと、我々が情報を扱う場合にはその自由度が非常に大きくて、情報を作り出すためにはその自由度の中から特定の一部を選び出す必要があり、それが人間以外には難しいと思われてきたからである。
情報を扱う自由度という概念は、情報技術の専門家にとっては当たり前のことではあっても、一般にはあまり馴染みがない。例えば、言語情報であれば、自由度は全ての単語の並べ方の数であり、画像情報であれば、画素が取りうる色の数×画素数である。動画であれば、それが時間刻みの数だけ増える。人間の行動についても同様に自由度を考えることができる。自由度をどういう風に設定するかはプログラマーの恣意であって、人間にとっての現実がその設定された自由度で完全に記述できるというのは、あくまでも仮定の話である。
長い間、目的の情報を作り出すためには与えられた問いかけからある種の論理や法則に従って演算する必要があると信じられてきた。しかし、そのような論理や法則を発見するのは所詮自由度が大きすぎて不可能であった。勿論大雑把に言えることは多くある。とりわけ自由度がかなり制限された状況(物理の実験)においては法則が発見され、それを組み合わせて有用な情報が生み出されてきて、それが現代の文明の基盤となっている。(ただ、社会科学についてはあまりうまくはいかなかった。)
生成AIで使われているプログラムを一言で言えば、「膨大なパラメータを持った万能非線形関数(神経回路網)」である。それだけでは何の役にも立たないけれども、膨大な数だけある現実の情報が与えられて、それを再現するようにパラメータを決めることができれば、そのパラメータで決まる空間(自由度)が「いかにも実際にありそうな情報の集合体」と対応するようになる。この集合体は、元々想定されていた情報の自由度の空間で見ると、その空間の中のほんの一部の空間(数学では多様体と呼ぶ)であるが、簡単な方法では特定できない。
岡野原大輔氏の「生成AIのしくみ」(岩波科学ライブラリー)に成程と思わせる比喩があった。統計力学というのは膨大な数の原子や分子の集合体からその全体としての物性を導く学問であり、その原理と言えば分配関数である。これは個別の状態(膨大な自由度から選択された一つ)の「自由エネルギー÷温度についての指数関数(exp(-F/kT)」がその個別状態の相対的な確率であって、それの全て状態についての総和のことである。この分配関数が判れば、全ての状態の確率そのものが確定して、巨視的物性が判るのだが、実際にその分配関数を計算できるのは特殊な場合だけである。統計力学の教科書にはそれを如何にうまく使うかということと、そこから論理的に導かれることが書かれてある。しかし、僕も含めて多くの物理学者は軽蔑していたのだが、計算機シミュレーションではモンテカルロ法というのがあって、一つの個別出発状態から確率的に次の状態を決める、というやり方で数をこなしていくと、それらの長時間平均としては実際の物性が再現されるように遷移確率を決めておくことができる。この次々と遷移していく状態というのが、前節の「多様体」なのである。この分配関数主義と計算機シミュレーションの対比は昔のエキスパートシステムと現代の生成AIの対比に相当している。
考えてみれば、人間の脳も生成AIと同じようなことをやっているのだが、人間には遺伝的な機構や身体や他者とのやり取りがあって、それらは最初から自由度が限定されているために、学習が極めて効率的となっている。多分人間の脳の学習にとっては文化的な伝承情報からの学習というのが一番非効率な部類だろうが、これだけで何とかしようというのが生成AIである。しかし、膨大なエネルギー資源を使えば出来そうなのである。
昔観た SF小説のタルコフスキーによる映画化作品「惑星ソラリス」は生成AIに近いと思う。ソラリスの海は彷徨った宇宙船の乗組員との対話によって乗組員が現実と信じてしまうほどの現実的な夢を見せる。地球との交流を絶たれた乗組員にとっては他に「現実」は無い。
言うまでもないが、「いかにもありそうな情報」は「事実」ではない。事実かどうかはそれを受け取った人間が自らの身体で実証してみなければ判らない。何も判らないよりはましであるとしても、そのまま信じることは却って危険である。それが誰かによって操作された情報かもしれないからである。最近は実際生成AIで作られた情報の割合が増えている。AI は便利さよりも弊害の方が大きいような気がするけれども、利潤を産む構造がある限り、大量の電力を消費しながら発展し続けるだろう。