Life Icon ◆ コンピュータは思考できるか? ◆

NHK教育 未来潮流 1999/02/13
「仮想討論・コンピュータは思考できるか・1949年 in ケンブリッジ」

このあいだの土曜日 (1999/02/13) 、NHK 教育で 「コンピュータは思考できるか?」という番組があって 面白く観た。 1960年代の科学者が仮想討論するという形の小説 (?) がネタらしい。

「思考」は人間のみがするものだ、という思い込みがあると、 「機械が思考」という課題がそもそも成り立たないわけで、 そのへんは個人個人で違う、言葉の定義の問題になるのだろう。 (黒崎政男的コメント)

その点「チューリングテスト」というという考え方がやっぱり 面白くって、「見分けがつかないなら、人間と同じ事をしていると 認めざるを得ない」というのは論理的思考としてはグーだ。
チューリングの時代にはテレタイプ(キャラクタ端末)を 介しての会話、というのが実験として現実的だったのだろうが、 その程度のもの(人間がタイプしているとだますことができる)は もうできていると聞いているし、マルチメディアの発達した現代なら、 テレビ電話を介してのチューリングテスト (相手が CG 合成の仮想人格かどうか区別できない)なんてのが 可能になる日も近いかもしれない。

DeepBlue がカスパロフにチェスで勝った件に言及して、
「DeepBlue は1秒に数億手をチェックしている。人間は 勘を駆使してせいぜい1秒に数手だろう、だから思考方法が まったく違うのだ。」
なんてことを言っていたが、「人間が1秒に数手」というのは 自分で意識できる部分がそれだけだという事であって、意識下で なにをしているかは分かったものではない。
DeepBlue にしたって、演算時間の多くは有望な手のいくつかに ついて「深く」検証する事に時間を裂いているはずだし、 時間切れになった場合に不確実な情報でどれに思い切るか、 という判断はかなり人間に近いものがあるんじゃないのか。

ゲームのルールは「言語」であり、対戦は「会話」である。 つづく。


MINEW:
: マルチメディアの発達した現代なら、テレビ電話を介しての
: チューリングテスト(相手が CG 合成の仮想人格かどうか区別できない)
: なんてのが可能になる日も近いかもしれない。

例えば、「メイルを書く仮想人格」なんてのはもうあってもおかしくない。 ホームページを持っていると、見知らぬ人からメイルをもらって 機嫌が良くなったり不愉快になったりするわけだが (不愉快にするのは簡単だ「確実に儲かるビジネスに参加しませんか」 とかそんなやつだ)、
ちゃんと内容にコメントして褒めてくれているメイルにしたって、 それがコンピュータプログラムによって書かれたものではないと いう確証は無い。

・「猫の写真がとても可愛いです。期待してます」なんてね。

ちょっと褒められただけでうれしくなる。こんなメイルを 自動生成してばらまけば、ネット社会は見掛け上ハッピーに なるかもな。(ネットコミュニケーション補完プログラム)

ホームページを自動巡回する「パトロールエージェント」を作って、 「教育的指導」や「ファンメール」をそれぞれの作者に送りつける ようにしたら、ホームページ文化の維持発展(コントロール)に 貢献できるかもしれない。

・「あなたのホームページは教育的観点からもとても好ましいものです、
  これからもがんばってください。」
・「あなたのホームページ http://xxx には倫理上重大な問題があります。
  ただちに修正または削除してください。」


MINEW:
: 「思考」は人間のみがするものだ、という思い込みがあると、
: 「機械が思考」という課題がそもそも成り立たないわけで、

コメンテータの数学者、藤原(だったか?)は
「いや、機械と人間の間には越えられない距離がある」
という主張で、たとえば感情的な動揺があることなどをあげていた。

「人間の思考、判断はとても揺らぎやすく、少し前に決断したことでも 考え直すと違ってしまったりする。その判断には個人個人の経験とか その時の体調とか気分が影響していて、これこそが『人間的な』特有の 心の働きなのだ。」
というような主張。

「きっちり判断の下せない問題をコンピュータが扱えるか?」 ということなのだと思う。
人間が対象にしている現実世界においては、常に「全てを知る事が できない未来予測の総合」からなんとか判断して、制限時間付きで 判断を下して行くしかない。
不正確で矛盾し合う情報がいろいろある。それらにどう重みをつけるか、 悲観するか、楽観するか、そのへんの調整のパラメータが人によって違い、 時間的にも変わってゆくということだと考える。

そういうコンピュータを作る事だってできるだろう。
「不正確で矛盾し合う多数複数の時々刻々情報から、それらを統合した 何らかの判断を下すプログラム」。
チェスプログラムが制限時間内に処理をしきれない場合にどう見切りを つけるかというのもひとつだろうし、 株価変動を多数の評価観点から解析し、その時々に買うか売るかを 判断するようなプログラムもそうだろう( NHK「マネー革命」で出て来た)。

それはもちろん難しいだろうが、突き詰めれば人間と同じような動きを するようになってしまう事もあるだろう。些細な情報で一喜一憂して 判断を変えてしまうような事が。

今までは、コンピュータにそういう機能を「求めて来なかったから」 できなかっただけ。確実に正解のある問題だけを解かせて来た。 これからは、そういうものも求められるようになるのか?

たとえばこんな問題がある。

・競馬の予想
・選挙で誰に投票するべきか
・どの製品を買うべきか、買わなくていいのか
・どの映画を観るべきか
・今夜の料理は何を作ろうか
・明日は洗濯をするべきか
・……

曖昧で、正解の無い問題は日常に沢山あるのだ。

人間の中には、矛盾したいくつもの評価基準が同居している。 それがすごいといえばすごいところ。

「どの服を着て行こうか?」なんてことを機械が判断するように なるだろうか、なって欲しいだろうか?

判断基準
・今日の気温は寒そうだから厚めの服
・今日会う人は偉いからこぎれいに
・一週間以内に着た服はダメ
・新聞にでた今日のラッキーカラーは青だから
・会社居室内は暑いから脱げる上着
・この服にはこの靴をあわせて
・……


ロボットは死なない、それが決定的な違いを生むか?

ロボットだって「故障したり(病気)」「事故にあったり」 「新型機種に置き換えられる(寿命?)」ことがあるだろうし、 そうなると行動スケジューリングにおいて、遠い未来のことよりは 明日のことに重点を置くようになるだろう。

ロボットが「死」を「恐い」と思うかどうか?
これは自然には生まれるのではなくて、人間が設計する際に 組み込んでしまうのでしょう。
なぜなら、ロボットが壊れることは「もったいない」ことなので、 事故や故障を避けるようにするだろうから。 その時の「リスクを避ける」という信号は、人間の「恐怖」という 感情の働きとほとんど同じではないかな。

人間や動物では、「恐怖」を持つことで死を避けて、子供を 産んで進化的に続いてきたものが残る、という形で死を恐れる 感情が形成されたと思うが、 機械では、「故障しないで長く使える」ものが再生産& バージョンアップされて行くようなら、そういう恐怖的感情も 形成されるかもしれない。

「危険な作業を人間の代わりに」とか「使い捨て」が目的の ロボットならばそうはならないだろう。

* そんな難しいことは言わずに「ブレードランナー」を観たほうが 良くわかるよ。(^_^)


1999/06/13 T.Minewaki
2001/07/29 last modified T.Minewaki

生命のよもやま話
MINEW のホームページ

T.Minewaki / minew@post.email.ne.jp