1−3・人間側が勝てる対戦場所をこのツールで割り出す
人工知能での2種類の基本的な方法論
では一見万能に見える人工知能が、具体的にはどういう場所でそうした原理的な壁を露呈してしまうのかについて、もう少し実戦的な視点から詳しく見てみよう。
それ以前の問題として、そもそも人工知能やコンピューターがこの種の問題を処理する場合、そこには大きく分けて2種類の方法論が存在するのである。ではそれぞれについて整理してみよう。
(1)演繹型メソッド
まずその方法論の一つは「演繹型メソッド」で、特にこれは作用マトリックスのイメージで考えるとわかりやすい。
つまり作用マトリックスの場合、宇宙や社会の動きを記述するには、要するに縦横にずらりと並んだ相互作用成分の値を全部与えてやればよい。そして「演繹型メソッド」とは、要するにそのようにしてとにかく最初に作用マトリックスの形を決定してしまうという方法論で、ひとたびそれが決まってしまえば、後はそれを繰り返し掛けてn乗していくことで、その後宇宙や社会がどう動いていくかをどんどん演繹的に求めていくことができる。
そしてこの場合には、論点の最大の争点は、それをn乗していく際の計算の手間が可算無限個に収まるか、それとも非可算無限個になってしまうか、という点に集約される。
(2)帰納型メソッド
一方それに対して「帰納型メソッド」とはどういうものかというと、要するに途中の経過はすっ飛ばしても良いから、とにかく結果と原因のデータをペアの形で片っ端から集めて、望みの結果が出ているものをピックアップしてしまう方法論である。
そしてそれぞれが、どういう始点から発してそういう終点に至ったのかをデータごとに整理し、そこから直接、行動の指針などを帰納的に割り出していくわけである。
こちらの場合、いちいち全部馬鹿正直にn乗計算をせずとも、望ましい結果が出ているものを拾い出し、それがスタートした地点の情報を直接、答えとしてしまえばよいわけで、それさえわかれば、途中の計算などは省いてその手間を大幅に節約することができる。
そのためこの帰納型メソッドの場合、先ほどの演繹型メソッドと違って、n乗計算の手間そのものは必ずしも重大問題にはならないが、ただしこちらの場合には「集めねばならないデータの個数が一体何個か」ということが重要になる。
そしてこの場合、可算無限個のデータだけで問題の鍵を割り出せればOKだが、もし集めるべきデータの個数が非可算無限個になってしまうとすれば、こちらの帰納型メソッドでも駄目ということになる。
そしてこれを聞いておわかりのように、特にこちらの方法論はビッグデータと切っても切れない関係にあり、そのためこれに関する議論の本質は、人工知能の限界というより、むしろビッグデータの数学的な限界を割り出す、というもっと大きな話までもが視野に入ってくる。
そしてこれも作用マトリックスを用いると、今までは難しかった解析が簡単にできて、それを直観的な形でクリヤーに俯瞰することができるようになるのである。ではそれぞれについて見ていこう。
演繹型メソッドの意外な盲点
まず最初は前者の演繹型メソッドであるが、実はこの問題に関しては、そのn乗計算の手間を数える問題に先立って、ある意味でそれ以上に大きな盲点が存在しているのであり、そちらを先に見ておかねばならない。
そしてこれはまさに作用マトリックスのビジョンが最大の威力を発揮する場所で、従来の数学を使った方法論では気づくことがしばしば難しいのである。
それはまた、人工知能がチェスや将棋などで人間と勝負する場合と、現実の社会問題の答えを見つけるなどというもっと大きな問題で勝負する場合の違いを、より明確に明るみにすることにもつながっていく。
一般の世の中でも、将棋やチェスで人間が負けることはほぼ常識となっているが、多くの人は、それは将棋やチェスの盤面が限られた大きさで、そこに現れる手数が最初から有限個しかないため全部を虱潰しにできるためだ、と理解しているのではないかと思う。
確かにそれは間違いではないのだが、実はその背後にはもっと大きな理由が隠されており、そこに気づかないままだと、社会問題などへの拡張の際に大きな誤解を生じることになりかねないのである。
ではそれを見ていくと、一般にわれわれは常識として、どんな問題であれ、その動きを支配する情報を最初にインプットしてやれば、シミュレーションの形で原理的にそれを完全に再現できると思っているのではあるまいか。
そしてチェスや将棋の場合、各駒の動かし方のルールがそれに相当し、「クイーンや飛車などの駒はこのように動ける」などというルールが基本情報として全部インプットされれば、原理的にはそれですべての動きをシミュレートできる。
そのためこの場合には現実面の障害となるのは、基本的に盤面のサイズだけだということになり、チェスや将棋はそれが小さいから扱うことができるが、社会の場合にはそのサイズが大きいからまだ扱えない。
しかし逆に言えば、社会などの大きな問題なども、それをある程度単純化して盤面をコンパクトにすれば、完全に正確ではないにせよ、ある程度の精度でならシミュレートできるはずである。そうなれば、後はその規模を徐々に向上させていけば良いだけで、そう考えれば社会の問題などもチェスや将棋と同様に制覇していけるはずだ、というわけである。
ところがここに一つ盲点があり、それは作用マトリックスのビジョンを一旦通すとよくわかる。つまり作用マトリックスの場合、確かに行列の縦横に並んだ相互作用成分の全てを決定してやれば、そのように系の動きを支配する情報を全てインプットできる。ところが現実の一般の問題では、チェスや将棋の場合と違って、実はその相互作用成分を直接知ることはできないのである。
一瞬面食らった読者もあるかもしれないが、作用マトリックスの場合、われわれが「現実を観察・観測して得られたデータです」と呼んでいるものは、実は行列本体の成分情報ではなく、それにかかる列ベクトルのデータの側だということである。
実はわれわれはしばしばこの点で一つ大きな錯覚をしており、チェスや将棋の場合、ルールブックを与えられることでわれわれは一種の「神の視点」を得ているため、直接作用マトリックスの縦横の成分を決めることができる。
しかし一般の問題では、そういう「神の視点」はないのが普通であり、そういう場合われわれは作用マトリックスの相互作用成分を直接知ることはできず、列ベクトルのデータ(実験観察データ)からそれを間接的に割り出すしか手がないのである。
ところがここが重要なのだが、その「実験データ・観測データ」として得られている列ベクトルのデータは、現実には複数の要素からの相互作用成分の影響がいくつも絡み合って合成された結果だということである。
そのため本命の情報、つまり「系を支配するルール」としての行列の相互作用成分の中身を求めるには、その混ざったデータからそれぞれを分離する形で、間接的にそれらを割り出していかねばならない。
この「(相互作用)成分は直接は観測できない」というのは、よく考えれば当たり前の理屈なのだが、しかし作用マトリックスのビジョンがないと、盲点になってしまってなかなか気づかない。
そもそもこの演繹型メソッド自体が多分に、「神の視点」を得ているという前提で成り立っていた部分があり、n乗計算の手間を減らすなどという手法も、その前提がない限り、実は施しようがないものだったのである。
必要データの全ては原理的に割り出せない
これだけでも大きな盲点だが、ところがこの話を進めると、さらに大きな盲点が存在していたことがわかる。それは、この相互作用成分を間接的に決めていく際に、データの個数が一体いくつ必要かということである。
例えば5行5列の行列の場合、その成分の個数は25個あるが、これを決めるためのデータとして、列ベクトル1個分だけを観測データの形で用意しても、列ベクトルの成分は5個しかないので、常識から考えてもこれだけでは到底全部を特定できない。
そのため観測データとしての列ベクトルは5組必要となり、それを合計すれば確かに全部で25個の数値が手元にあるので、ようやく作用マトリックスの成分全部を決められることになる。(これは、高校の連立一次方程式で出てくる話と似ている。)
それは言葉を換えれば、要するに全く同じ条件で5回の実験や観測を繰り返さないと、必要なだけのデータを集めることができない、ということである。
ところがここで重大な問題が発生し、それは「全く同じ条件で同じ実験を5回繰り返すことは、原理的には不可能」だということである。つまり例えば社会などの場合、同じ社会実験を全く同じ場所で2回繰り返して行おうとしても、社会が1回目の実験を経験して教訓を得たことで、人々の反応の仕方が変わり、多くの場合、作用マトリックスの中身そのものが変化して別物になってしまうのである。(あるいは読者は、例えば「2回目の実験を、それを全く経験しなかった別の町で行えばどうか」と思うかもしれないが、その場合そもそも最初からそれは別の作用マトリックスになってしまうので、問題外である。)
この場合、もし社会の側が学習能力をもたず、何度同じ実験を繰り返しても作用マトリックスの形が全く変化しないようならば、たとえ「神の視点」がない場合でも作用マトリックスの形を決定することが一応はできる。
しかしそういうケースは、自然科学の世界でさえ量子力学が登場する以前の古典力学に属するものだけに限られ、生物や社会の場合となるとそのほとんどが、経験による情報の流入でどんどん系自体の性質が変化していくタイプのものである。要するにそうした例外的なものを除いて、大多数の場合にはそれができないのである。
要するに演繹型メソッドの場合、n乗計算の手間が可算無限個に収まるかという問題以前に、こんな大きな壁が盲点として存在していたのである。
なぜそういう盲点が生まれてしまうか
それにしても、こんな根本的なレベルでこんな大きな盲点が生まれてしまうというのは意外なことで、
そもそもこの錯覚は根が深く、実のところ多くの読者はこれに限らず今まで、この世のあらゆる問題は十分にデータを集めればどれも完璧にシミュレートできる、と考えていたのではあるまいか。
しかし意外にこうしたことは作用マトリックスのフィルターを通して眺めないと、盲点に入り込んでなかなか気づかないのである。そしてこの点にこそ作用マトリックスというツールの最大の秘密が隠されているのであり、ついでなので少しそれについて述べておこう。
正直、読者の中にはこのツールを最初に眺めたとき、数学的なテクニックとしては一見したところそう大したものではなく、せいぜい高校レベルのどうということはない単純なものだ、という印象を持たれた方もあるのではないだろうか。
事実、純粋に数学面だけから見ればそのツールはありふれたものを使っており、その面からする限りはさほど独創的とも言えないのだが、むしろその最大の意義は、この一見ありふれたツールに物理的・哲学的な意味や解釈を与えた点にある。
つまりここでは行列の各成分に「相互作用」という意味が与えられており、その点にこそ決定的な価値があると言える。そしてこれはその背後にもっと大きな根本思想があって、それに支えられているのである。
それは「この宇宙は、それを構成する各要素について、その相互作用を全て記述することで、その振る舞いを記述できる」という思想であり、これは従来の標準的な思想と比べると、ちょうど「ネガ」と「ポジ」のような関係にあって、見方によっては両者は天動説と地動説のように対照的な捉え方なのである。
まず従来の方法論の場合、天体や粒子などを「移動する点」と捉えて、その動きを「関数」の形で追っていけば、宇宙の振る舞いを捉えられる、という思想をとっている。
一方それに対して作用マトリックスの場合は直接その「点」の動きを追うことはせず、むしろそれらの間の相互作用だけに注目する。つまりその情報さえあれば、そこから点の動きは割り出せるし、逆もまた真なりで、要するに両者は互いに反転させた世界像になっているのである。つまり前者を「ポジ」とすれば後者は「ネガ」であり、作用マトリックスはたとえ「ポジ」の関数の情報がなくても、「ネガ」の情報だけで宇宙を記述できる、という思想をとっているわけである。
そのように逆から見ていることが、今まで見えにくかった盲点が見えやすくすることを可能にしているのだが、実は従来の方法論にどっぷり漬かっていると、そのような発想にたどり着くのは想像以上に大変なことなのである。実際問題、作用マトリックスの思想には量子力学などの考え方がかなり影響しており、それらを参考にしない限り、そこへたどり着くのはまず無理だったのではないかと思われる。
そうやって眺めると、上で述べた盲点もどこか量子力学の話に似ているのであり、上の話が一見単純に見えたとしても、そのバックグラウンドに隠されているものは実は遥かに大きいものなのである。
そのため読者が今後このような問題にアプローチする際には、今までの思考方法を根本的に捨てて、このポイントを踏まえた新しいビジョンを頭に入れ直す必要があることになるだろう。
ビッグデータと帰納型メソッドも意外な限界に突き当たる
さて話を戻すと、確かにそのように相互作用成分を具体的に知ることができない場合には、演繹型メソッドには重大な障害となって、その方法論がほとんど使えなくなるが、しかしそういう場合でも、もう一方の「帰納型メソッド」なら、そのことは必ずしもすぐには致命的なポイントにはならない。
そして人工知能の業界で発展の切り札として期待しているのは、むしろビッグデータに物を言わせた帰納型メソッドの側であり、そのため次にそちらを見ていこう。
この場合に重要な鍵を握るのは、言うまでもなく先ほど述べたように、扱う対象である社会や生物が「学習能力をもっているか」ということであり、もう少し堅い言葉で言えば「対象の性質自体が情報流入によって次々にフィードバック的に変化するか」ということである。
そしてここで読者には、先ほどの「神の視点」がない場合の、データ収集の盲点に関する話を思い出していただきたい。つまりそれは、例えばもし問題が5個の要素から構成されている場合(つまり作用マトリックスのサイズが5×5の場合)だと、実は全く同じ条件で5回、実験や観測を繰り返さなければ、必要なだけのデータを全部集めることができない、という話である。
そしてその時に、「もし実験を繰り返す際に、社会の状態が経験や学習効果などで次々に変化し、2回目の実験を行う際には1回目とは社会の状態が変わってしまうという場合には、もはやデータ収集そのものが原理的に不可能になる」という事実が指摘されていた。
これは理系の人間が聞くと、恐らく誰もが量子力学の不確定性原理の話、つまり「観測を行うと、その観測自体による影響が対象の性質を変えてしまう」を思い出すのではないかと思うが、とにかく先ほどの話では、「対象が学習能力をもつ」ということが重要な鍵となっていた。
そしてこれはデータ収集の根本に関わる問題なので、当然ながらビッグデータによる帰納的メソッドにとって、本質的な障害となるのである。
対象自身が学習能力をもつとどうなるか
そこでもう少し詳しく見てみたいが、ただむしろ理系でこの種の問題を扱ったことがある人の場合、「学習能力をもつ場合を解析する」などという台詞を聞いただけで、意気阻喪してしまう場合が少なくないと思われる。
実際、従来の標準的な解析方法は関数をベースに物事を記述するため、情報流入の効果を関数の中にフィードバック的に組み込んでいく、というアプローチになるのが普通だが、ところが実際にやってみると、その関数がフィードバックで何重もの入れ子式(まるでロシアの土産物のマトリョーシカ人形)のようになって、結局頭がこんがらがって終わり、という場合がほとんどだったのである。
ところが作用マトリックスを使うと、その厄介な部分が驚くほど簡単な方法でスマートに表現でき、この問題自体の見通しも簡単につけることができるのである。
ここでは詳しい話は省略して簡単に直した形で述べるが、その基本はさほど難しいものではない。要するにこの場合、社会が何かを学習したり、あるいは情報の流入があったりした場合には、ただ単純に作用マトリックスの相互作用成分のどれかが値を変えてしまう、と考えればよいのである。
つまり例えばその成分は、社会が何かを経験する以前には「a」という値だったが、社会がそれを経験して何らかの形で学習効果を得てしまうと、「b」という値に変わってしまうというわけである。
もう少し具体的でわかりやすい例として、ここで新聞が社会に与える影響を作用マトリックスで表現することを考えよう。そして去年までは世の中全体が外交にあまり関心がなく、新聞が割く紙面も少なかったのだが、政府が去年、外交で大失敗をやらかしてそれを国民が目撃したことで、今年からは外交面の紙面が大幅に増えて、見出しも派手なものになったとする。
つまり先ほどの話で問題となっていた成分は、ここでは新聞の外交面の紙面や見出しの大きさを意味しており、去年まではそれが「a」の大きさだったのだが、経験でそれが「b」に拡大された、と考えればよい。
そして今年からはそれがbに拡大されたことで、たとえ政府が前年と同じ程度のことをやっていた場合でも、見出しが派手になったので読者がそれを強い印象で受け止めるようになり、社会にそれが大きく伝わって、前より国会が荒れて外交政策の揺れ幅が大きくなる、ということになる。とにかくこのようにすると、経験や情報の流入で物事の動きやルールが変化していく状態を表現できるわけである。
ただし今の例では、値が変化する成分は1個だけで、それがどこにあるかもわかっており、その意味で「神の視点」が半ば想定されているかのような感覚で話をしてしまったが、一般の場合には必ずしもそれは保証されていない。
つまりそういう一般の場合だと、どの成分が値を変えてしまうのかは前もってわかっておらず、そもそも変わる成分は1個だけではないかもしれない。極端な話、全ての相互作用成分が一斉に値を変えてしまう場合も十分あり得るので、そのため一応は全ての成分についてaとbのように2通りの可能性を考えておく必要がある。
つまりもし作用マトリックスのサイズが5×5なら、25個の成分全部について、その値に2通りの可能性があることになり、あらゆるケースを残らず虱潰しに書き出すとなれば、結局225通りの場合について考えねばならない、ということになるわけである。
それだけではなく、時間的にその動きを追っていく場合、その途中のどの時点でそうした値の変化が起こるかによっても、結果が変わってきてしまう(これは先ほどの話で、新聞の紙面拡大がいつの時点のどのタイミングで行われるかによって、政局などの結果が大きく左右されることを考えればよくわかる)。
そのためサイズ面を考慮した25個に加えて、いつの時点でそれが起こるかの時間差の話も「数え上げるべきケース」として考慮し、その両者を合わせたもので考える必要がある。
それを残らず数え上げると、25個などより遥かに大きな数になることは容易に想像がつくが、それを具体的に数えるのは面倒だし、数字そのものは議論には大して必要ないので、とりあえずそのケースの総数をmとすれば、書き出すべきケースの個数は2m個ということになる。
これは、「スタート時点での状態と終点での結果のペアをデータとして集める」という帰納型メソッドにとっては重大な問題である。この方法論では要するに終点のデータの中から、望ましい結果が現れていたもの(例えばうまく儲かった場合などのケース)を拾い出し、それがどの位置からスタートしていたのかを調べれば、次からはその場所からスタートすることで再度望ましい結果を出せる、という考え方をとっている。
ところがもし社会が何かを経験したことで、相互作用の矢印が通るルートの途中のどこかで、成分の値がaからbに変わってしまって、行先そのものが変わってしまうとなると、1回目の結果のデータから割り出したスタート地点から出発しても、2回目では望みのゴール地点とは別の場所に行ってしまう可能性がある。
逆に言えば、たとえ終点のデータを見て同じ結果が現れていたとしても、それがたどってきたルートとしては潜在的に2m本のものが考えられ、スタート地点もばらばらだということである。そのため背後に隠れているそれら2m本のルートを全部虱潰しにチェックしない限り、どこからスタートしたのかを特定できず、実用上は役に立たないのである。
そしてこの場合も精密な表現を行うためには、時間などをどんどん細分化して区切っていく必要があるが、その極限では作用マトリックスをかける回数は無限大に増えていく。つまり考慮すべき潜在的な経路の本数も、2mにおいてm→∞としたものとなり、結局は非可算無限個に拡大してしまう恐れが出てくるわけである。
当然、たとえビッグデータに物を言わせて、スタート時と終点の結果のペアのデータをいくら大量に集めたところで、そんな程度のものでは原理的に全く追いつかず、データ個数が絶対的に不足だということになってしまう。
つまりもし対象(社会など)が学習能力をもっていた場合には、ビッグデータを活用した帰納型メソッドといえども、「数えられない無限」を巡る本質的な限界に突き当たってしまうことが、作用マトリックスを使うと簡単にわかってしまうのである。
そして現在の「ディープ・ラーニング」などは、まだそれより遥かに下のレベルの話で、スタート時と終点のデータ・ペアの収集を効率化する、という程度のことをやっているに過ぎない。確かに将来的には、それと演繹型メソッドを組み合わせた本格的な学習能力への発展が期待されてはいるが、それとて「神の視点」がなければ壁に突き当たるのは、先ほど見た通りである。
一方上の議論を踏まえてチェスや碁の場合を眺めると、そこでは系を支配するルールは不変のルールブックで与えられており、外部からの情報流入などでルールが変化することはない。
もともと先ほど述べたように、チェスや将棋は盤面上に現れる手数そのものが最初から有限値なので、それがいつかはコンピューターに制圧されることは誰の目にも明らかなことだったが、実はそれ以上に「ルールが一定不変で外からの情報の影響を受けない」ということが決定的で、むしろそのために例外的に人工知能が有利な対戦場所だったことがわかるのである。
つまり「系を支配するルールが情報流入のフィードバックによって変化する(対象自体が学習能力をもつ)かどうか」ということが、対戦場所の条件を左右する二番目の重要条件だったわけである。
三番目の重要な条件=「神は細部に宿る」が成り立つか
しかし人工知能と人間の対決を本格的に考える場合には、実用上はもう一つ考慮すべき条件があり、それをクリアしなければ人間側の勝利は到底おぼつかないのである。
そもそも上でリストアップした弱点にしても、あるいは人工知能の推進側の人々には大した障害には見えていないのではあるまいか。
それというのもコンピューター業界の常識として、たとえデータ入力にその程度の取りこぼしがあったとしても、ほとんどの場合は大まかにはほぼ正しい結果を出すことができるため、それは必ずしも致命的障害にはならない、という見解が一般的だと思われるのである。
実際にビッグデータの現場から眺めても、現実のデータ収集作業の際には、全体の趨勢に大きな影響を与える重要性の高いデータほど登場頻度が高くて表面に現れ易く、そういうものから優先的にピックアップされていくだろう。逆に言えば、取りこぼしたデータは全体の趨勢にほとんど影響しないような、重要度の低いものである場合が多い。
つまりビッグデータが十分に進歩すれば、その取りこぼし部分は質的・量的の両面で非常に小さい微視的なものになっていくはずで、先ほどのようにデータ誤差の発生が避けられないとしても、いずれにせよそれは実用上さしたる問題にならないというわけである。
実際にこれは、一般の人々の仕事に関する「社会的シンギュラリティ」においては正しい理屈で、近い将来の課題として人間の単純労働の7〜8割を人工知能で代替させる際には、その程度の実用性で十分であり、ごく少数の人間だけがその誤差部分の補完を行えばよい。
ただ、「真性シンギュラリティ」において人間側が最後の砦で人工知能と対決を行う場合を考えるとなると、そのごく少数の人間が扱う課題こそが重要となるため、この議論はそう簡単に無視して良いものではなくなる。
つまりその場合には先ほどのような僅かなデータ入力誤差の部分が、人間側にとっては僅かに残された貴重な反撃拠点ということになり、人間側はそれを最大限に活かすことでポイントを稼ぐ以外にないからである。
しかしその人間側が稼いだポイントが、全体から見れば些細な、重箱の隅をつつくようなちっぽけで意味薄弱なことで、全体の趨勢にほとんど影響しないようでは、その程度のものを勝利と主張するのは、客観的に見ても意味がないであろう。
こうしてみると、問題の本質は次の点に焦点を結ぶことになる。それは「入力データの誤差がたとえ微視的なものでも、結果において巨視的な変化を起こせるか」ということで、それが成り立つか否かが決定的な意味を持つということである。
もしそれが成り立たず「入力誤差が微視的なら、結果に現れる変化も微視的で無視できる」という場合、人間側のあらゆる努力はほとんど無視できるものとして全体の趨勢にほとんど影響せず、これでは人工知能に勝ったとは到底言えないだろう。
逆に、入力データの微視的な誤差が結果の上に巨視的な形で現れるとしたら、その時は先ほどのように人工知能側に宿命的に生じるデータの取りこぼし部分が無視できなくなり、人間の天才の直観力が、その僅かな取りこぼし部分を利用して、全体の帰趨を完全に左右するような決定的な変化を引き起こしうることになる。
例えば芸術の世界でしばしば「神は細部に宿る」ということが言われるが、これはまさに上のような現象に相当しており、要するに普通なら見落としてしまうような微小な細部が、作品全体の出来に巨視的な違いを作り出す、ということである。
逆に言えばそれが保証された場所だけが、人間が将来的に勝てる有効な対戦場所だということになり、そして芸術だけでなく一般的な話としてそのようなことができた時に、真の意味で人間は人工知能の挑戦を退けることが可能になって、真性シンギュラリティの到来が阻止されるということになるだろう。
「初期値敏感性」が人間側の対抗を可能にする
要するに、これが三番目の極めて重要な条件だということになるわけだが、実はこれは非常に重要な条件で、後の第2部でも数学的には決定的な役割を果たすことになるため、これに関してだけはもう少し詳しく述べておこう。
さて先ほども述べたように、コンピューターやビッグデータの業界では「入力の誤差が微視的なものなら、結果に現れる誤差も微視的である」というのが常識だが、これはもっと遡れば、そもそも18世紀以来の科学的方法論がこれを想定して前進してきたのである。
そして実際にこれまで二百年以上にわたってその方法論は十分に有効だったのであり、それを考えると、人間側に有利な場所はごく例外的な領域にしか生まれないように見える。しかし芸術の世界では先ほど述べたように、微小な細部が作品全体の出来に巨大な影響を及ぼすということが決して珍しくなかった。
では本当のところ、宇宙の真理としてはどちらが正しいのだろうか。ところがここで最近の数学に目を向けると、実は18世紀以来の見解には少し修正すべき部分が存在していることがわかる。
例えばいわゆる複雑系やカオス理論では「初期値敏感性」という話があり、初期値を僅かに変動させるだけで、結果の値の上に非常に大きな変化が現れる、という現象の存在が議論されている。
実はこれこそが先ほどから述べていることで、それが存在するとなれば、人間側の天才芸術家は、その微小な細部を絶妙に活かすことで、作品全体の出来に巨視的な変化をもたらし、人工知能が作る粗い模造品とは次元の違う真の芸術作品を作ることができる、という理屈になるわけである。
逆に言えば「神は細部に宿る」という芸術の言葉は、数学的に眺めると実はこの「初期値敏感性」という性質が存在することが前提だったという、意外なビジョンが浮かび上がって来るのであり、対象がそういう性質をもっていることで、初めて実際にそれが起こり得るということになるわけである。
ただ、これまでの複雑系やカオス理論では、この「初期値敏感性」の話は非常に難しくて分厚い内容になっており、理解するだけでも大変で、ましてそれを応用して人工知能の話に組み込むなどということは、ほとんど不可能に近かった。
しかしこの話は作用マトリックスを使うと非常に簡単になり、複雑系について全く知らない読者でも、以下の数ページでゼロから出発してその数学的メカニズムを簡単に理解できるはずである。
(むしろ読者は以下を「三体問題から出発して別のルートで複雑系と同じ結論に達した話」として理解した方が良いかもしれない。そもそも筆者がここで「初期値敏感性」という言葉を使ったのは、単にこの語句がすでにある程度世の中に流布しているからに過ぎず、話の原点はあくまで三体問題であって、カオス理論の影響はほとんどない。そのため読者はカオス理論の話などは一切忘れて、最初から別物として理解してしまった方が遥かに早いと思われる。)
そしてこれは人工知能の話から離れて、一般教養としても有用なので、是非トライされたい。
「初期値敏感性」を理解する直観的方法
では早速作用マトリックスを使って、その直観的なメカニズムを見てみよう。まずここで社会などの、ある一点から発した相互作用が、いろいろな場所を通って結局自分のところに戻ってきてしまう、という場合を考える。そしてそれが戻ってきた時に、例えば元の大きさの1.5倍になっていた、とするのである。
そういうことは現実にも良く起こることで、例えば自分が行った発言が、世の中のいろいろな場所を通っていくうちに次第に影響が拡大して、その状態で自分のところに戻ってくる、という場合などは、それに当たると言える。
そしてその際には、それがループを一周回って戻ってきたことで自分自身の像が大きくなっており、次の回の発言は前回よりも大きな注目を浴びてマスコミ取材も多くなり、前回よりも一回り強い力となってスタートすることができる。そしてそれが再度同じコースを回るとすれば、それが戻ってきた時にはさらに像は大きくなっているはずである。
つまりこのループが何度も繰り返されるならば、それを1周回るごとにその都度どんどん拡大していくわけで、仮にそれが1回ごとに1.5倍に拡大するとすれば、2回目、3回目ではそれぞれ1.52、1.53と拡大して、6回目では10倍に膨れ上がってしまう。要するにこういうループが生じれば、指数関数的な増大が起こってしまうのである。
このメカニズムは簡単に理解できることで、一見するとどうということはないのだが、ところがここで指数関数というものが登場したことで、話は先ほどの「二つの無限」の話とつながって、哲学的には大変な結果をもたらすことになってしまう。
これはそれ自体が教養的な知識として、覚えておいて損のないものであり、また今後の人間と人工知能の問題を考える上で必要不可欠な知識となると思われるので、もう少し詳しく見てみよう。
そのメカニズムの根底にあるもの
さてこれは、基本的に系の中に指数関数が含まれることで現れる問題だが、ここで読者は以前に述べた話、つまりたとえnが自然数で可算無限の範囲にあったとしても、それが肩に乗った「2n」という恰好になると、その2nは非可算無限になってしまう、ということを思い出したのではないかと思う。
そのためここであらためてその指数関数のグラフを書いてみよう。そのグラフの横軸には今の話の「n」が、縦軸には「2n」がそれぞれ示されているが、この場合横軸の側は基本的に可算無限の範囲内にあって、横軸を目盛で区切った場合も、その個数は可算無限個以下に留まる。
ところが縦軸の「2n」は非可算無限の世界に出てしまい、目盛の幅を横軸と同じものに設定した場合には、その目盛の個数は非可算無限個に増大してしまう。
もっと単純に考えても、例えば横軸の目盛のスケールを1センチに設定している場合、そこでの誤差1センチの存在は縦軸では何百メートルにもなって現れることになる。これはむしろ逆に縦軸側の目盛の幅を1センチにとって、それを基準に横軸側を眺めると、問題の本質がよくわかる。
この場合、縦軸側の誤差を1センチに抑えるためには、横軸の目盛はミクロン単位の細かい精度が要求される。つまり横軸の側は極度に敏感なのであり、たった1ミクロンほど微視的に動かしただけでも、縦軸の側では数センチの巨視的な変化を生じてしまうことになる。要するにこれが「初期値敏感性」のメカニズムの本質なのである。
この話は何も複雑系やカオス理論の難しい話を持ち出さずとも、従来の普通の話で考えても、例えば物体が無限遠にまで飛び去って、その距離が指数関数的に増大していく単純な問題でも、隠れた形で一応ちゃんと存在してはいたのである。ただここで問題をもう少し手の込んだものにすると、それが遥かに見えやすくなる。
つまり内部に確かに指数関数部分が何個か含まれているが、それらが互いに相殺するように作用しているため、物体などがあまり遠くへ行かずに有限の距離内を行ったり来たりしている、という恰好にしてやるとさらにわかりやすい。
つまりこの場合には、一見すると有限値の中で動く問題なのだが、初期値をほんの僅かにずらしただけで、結果に巨視的な変化が現れることになり、おまけにそれがどう転ぶかがわからない、という状況が生じるわけである。
要するにこれが「初期値敏感性」の直観的な理解であり、もし読者が今まで、複雑系やカオス理論でその話がよくわからなかったなら、それらは一旦全部忘れて最初からこのように考えればよいのである。(実は最新の複雑系やカオス理論といえども、その基本ツールは作用マトリックスではなく従来通りに関数を使っているため、簡略化にはどうしても限界が生じてしまうのである。)
決定論的世界像への影響
実はこの認識は、人工知能とビッグデータの世界にも重大な影響を及ぼすことになる。先ほども述べたが、この業界の常識は18〜19世紀以来の数学の考え方をかなり引きずっており、それは要するにグラフの横軸も縦軸も、共に目盛やメッシュを可算無限個に区切るだけで事足りる、という思想である。
つまりデータ収集の話もこのバリエーションなのであり、この場合には問題の状況をケースごとに非常に細かく区分けして、それを虱潰しに入力していけばよい。それがちょうど横軸のメッシュに相当しており、そのため可算無限個のデータでそれを虱潰しにすることができる、というわけである。
そして19世紀ごろを振り返ると、その時にはいわゆる「ラプラスの決定論的世界像」というものが存在していた。これは理系的な話題に詳しい読者ならご存じと思うが、要するに、もしこの宇宙を構成する全ての粒子の位置と速度が決まってしまえば、もうそれ以後に宇宙の物事がどう動くかは全て定まってしまうという思想である。そのため最初の時点で全粒子の位置と速度を知ってしまえば、宇宙の営みをそのものが、最後の時まで全てわかってしまう、ということになるだろう。
この決定論的世界像は、歴史的には量子力学の登場で一応ひとまず否定されたが、実は先ほどの話からもそれは否定されることになるのである。
つまりこの場合、粒子の位置や速度のデータをどこまでの精度で知れば良いのか、ということが問題となるわけで、19世紀の決定論全盛時代の常識では、入力する初期値の精度や目盛の分割はせいぜい可算無限個で良く、そのオーダーでの微視的な差異ならば結果に現れる差異も微視的だと考えられていた。そして入力データの収集をその精度で行えば良いというのなら、世界の全部を十分カバーできることになり、それがいわゆる「決定論的世界像」の根拠ともなっていたわけである。
しかしデータをそんなに細かいメッシュで精密に見ないと、結果に巨視的な誤差が現れ、その際に必要なデータ個数が非可算無限個になってしまうというのでは、完全な形でのデータ収集は、もはや原理的なレベルで根本的に不可能となるわけで、その意味で決定論的世界像は崩れてしまうのである。(今まで複雑系の本で「初期値敏感性があると決定論的世界像が崩れる」という話を読んで、それがどういうことかがよくわからなかった読者もあると思うが、それは上のように理解すればよいのである。)
そういうケースは特殊か普遍的か
ただ、そうなると、そうした初期値敏感性が生じるケースというものが例外的にしか生じないものなのか、それとも逆に一般的に広く生じてしまうものなのかが重大な問題となり、是非それを知りたくなってくる。しかし作用マトリックスのビジョンを使えば、どういう場合にそういう初期値敏感性が生じるのかも簡単にわかってしまうのである。
それは数学的にも明確にわかり、その結論を厳密に言えば「作用マトリックスの固有値のどれかが正の実数部分を持っている」ということで、この結論を数学者が見れば、それは必ずしも例外的な特殊ケースではなく、ごく一般的に生じるものであることがわかるだろう。
しかし読者はそんな難しい話を理解せずとも、先ほどまでのイメージが頭にあればもっと簡単に直観的に理解できる。要するに早い話、図1−3− のようなループがどれか1個でも生じればよいのであり、そういう場合には初期値敏感性を帯びる可能性が生じるのである。そう考えれば、それが決して例外的なレアケースではなく、むしろ遥かに一般的に生じうるものであることがわかるはずである。
そしてまたこれは先ほどの問い、つまり芸術における「神は細部に宿る」ということが生じるのは、ごく例外的な場合だけなのか、それとも一般的に広く起こることなのか、ということに対する答えも与えることになる。
つまり上のことからすると、それは宇宙の根本原理からしてむしろ普通のことだったのであり、そのように細部の一か所が全体の完成度に巨視的な影響を与えて、傑作と駄作を分けてしまう、ということは、想像されていたよりも遥かに一般的な話として、現実に起こり得るものだったのである。
そしてこうしてみると、人工知能の議論においてこの初期値敏感性の話は、以前から述べている「無限大に二種類ある」という話と並んで、今までの常識では見落とされ易かった根本的な二大弱点であることがわかる。
実際、この初期値敏感性の問題がビッグデータの話であまり重大視されていないのは、むしろ不思議なほどである。あるいは読者もそうだったかもしれないが、今後はその認識は真性シンギュラリティの問題を論じる上で不可欠なものとして要求されていくだろう。
対戦場所の意外な条件
そしてさらに先ほど、とにかく作用マトリックスの中に相互作用のループが存在していれば、この重要な初期値敏感性が生じると述べたが、この条件はもう少し詰めることができて、そこで意外な事実が浮かび上がってくる。
どういうことかというと、まずちょっと考えればわかるように、一般的に作用マトリックスの成分のほとんどがゼロ成分であるような場合には、そういうループは生まれにくい。
つまり本来、相互作用の矢印は、成分から成分へと飛び石的に次々に渡り歩いて進んでいくが、その途中でどれかがゼロ成分になっていると、そこで相互作用の連鎖が途切れるために矢印は行き止まりになって、ループが形成されないことになる。
そのため、系の中に含まれるゼロ成分の割合がある程度以上に多くなると、ほとんどのループが途中でゼロ成分に突き当たってそこで消えてしまうわけである。
逆に言えばこの場合、非ゼロ成分(=ちゃんとゼロでない値を持っている成分)が多いほど、それを伝わって一周して出発点まで戻ってくるループが発生しやすく、系自体がそれによって初期値敏感性を帯びる可能性も高くなるというわけである。
それでは具体的に非ゼロ成分がどのぐらい多く含まれていればそういうことが起こるのだろう。そこには何か、その個数や割合に関する目安はあるのだろうか?
ところが実は作用マトリックス理論と使うと、これに関して驚くべき法則が存在することが判明してくる。それは(結論だけを述べると)、一般に系を構成する各要素が、他の要素との間に平均で2.718…個の相互作用を持っていると、それを境に系の性質は全く変わってしまうということである。
この2.718…という数は、理系なら誰もが知る「自然対数=e」であり、数学ではπと肩を並べる重要な数である。
そして各要素の平均相互作用の個数がe個を境にして、非ゼロ成分がそれより少なければ系は安定していて、どこかを僅かにいじった影響は全体にほとんど現れないが、平均相互作用がそれを少しでも超えた途端に、系はどこをいじっても全体に大きな変化が現れかねない不安定なものとなって、パーツに分割して扱うこともできなくなる。
つまり驚くべきことに、自然対数eが一種の臨界値となって、そこを境に系全体の性質が大きく変化するのであり、その変化の状況は「臨界曲線」として描き出すことができる。
言うまでもなく、その性質の一つとして初期値敏感性が存在するわけで、要するに社会であれ人体であれ、扱う対象の内部の構成要素同士が、互いに相互作用を平均2.718…個以上持っていた場合には、初期値敏感性が生じてビッグデータの万能性には限界が現れてしまうわけである。(なおこの話は作用マトリックスを使うため、通常の複雑系の理論には含まれておらず、その数学的な詳細を知りたい読者は「物理数学・・・」の「臨界曲線の驚異」の部分を参照されたい。)
「神は細部に宿る」が生じるための数学的条件
そしてこれは人工知能と人間の問題にも応用でき、先ほど出てきた芸術での「神は細部に宿る」という話を可能にするための現実的な条件が、ここから割り出されてくることになる。
つまり舞台となる世界が「内部の相互作用が平均e個以上」という条件を満たしていれば、そこでは入力データに微視的な誤差が、結果において巨視的な変化となって出現しうる。そのため人間側が、人工知能とビッグデータがどうしても取りこぼしてしまうその部分を活かして、全体の結果を大きくひっくり返してしまう余地が存在することになる。
つまり「神は細部に宿る」という芸術の格言も、実は作品内の各要素の相互作用が2.718…個以上あって、その糸が緊密に張り巡らされている状態で初めて実現されうるものだった、ということになる。
逆に、相互作用がそれより希薄だとそういうことは起こらず、またそういう場合には系を分割して扱うことによる誤差もほとんど無視できるため、実質的には系を分割して扱うことが可能になり、人工知能や量子コンピューターが得意な並列処理なども使えてしまう。
要するにこれは、人間側が人工知能と最終的な対決を行う上で、極めて重要な条件の一つであり、次の第2部の議論なども、これを考慮に入れることで内容の充実度に格段の差が出てくるのである。
初期値敏感性についてのありがちな誤解
なおこれは、今までこの初期値敏感性の話を複雑系やカオス理論を通じて知っていた人のための注意点であるが、そういう読者の場合、中には「こうした初期値敏感性は、問題が非線形になっている時に起こる」と思っている人もあるかもしれない。
しかし実はそれは必ずしも正しい理解ではないのであり、とにかく系の内部に指数関数的なループがありさえすれば、問題が線型であれ非線形であれ、一応はそういうことが起こるのである。
ただ問題が線型の場合には、大体は問題自体が解けるので、その影響がどこに出るのかをあらかじめ知って対応することができるのに対して、非線形の場合には三体問題のように問題が解けず、それがどこに出るのかがわからないため対応ができない、という点が違うのである。
もっともこれは、人工知能の議論を理解する上でさほど必要な話でもなく、そもそも大多数の読者にとっては非線形問題などと言われても何のことかぴんと来ないと思われる。
ただ、今まで人工知能の将来に関する専門的な議論ではとかく「問題が非線形の領域に入ってしまうと何が起こるかわからない」ということで議論を詰め切れなくなることが多かった。そのためそういう場合には、とにかく重要なのは初期値敏感性があるかないかということで、その際には問題が非線形かどうか自体は必ずしも決定的な要因ではない、ということだけは、知識として覚えておくことが必要だと思うのである。
注)なお専門的に理解したい読者のために、参考までに述べておくと、作用マトリックスで非線形問題を扱う際には、先ほどの図1−3− のイメージをもう少し一般化した方法で扱う。つまり先ほどの図1−3−4 では、社会などが何かを経験すると成分のどれかが変化し、その値がaからbに変化する、ということになっていた。これはちょうどその成分に一種の切り換えスイッチがついていて、社会がある経験をするとそのスイッチがオンになって値がbに切り替わる、というイメージでも捉えることができる。
そして一般に非線形問題を扱うには、これを階段状に何重にも積み重ねて行うのである。その詳細は「物理数学・・・」を参照されたいが、一般に非線形問題では問題の中に入り込んでいる2乗や3乗の部分を扱うことが難しい。そのためここでは、こういうスイッチつきの成分が階段状に配置され、そのスイッチが次々オンになる状況を何段も積み重ねることで、2乗や3乗を表現してしまう、というアプローチでそれを表現する。
実際に常識的な範囲での非線形問題は、大体これで表現できてしまうのである。そして非線形問題がなぜ解けないのかも、これらのスイッチのどれがいつオンになるかの情報が手に入らない、という話で理解される。
この場合、天体の位置などに関してその距離の大きさがある値に達してしまうと、そのスイッチがオンになるわけだが、ここで問題になるのは、いつどの時点でどの成分のスイッチがオンになるかを前もって一括した形で知っておくことができないことである。
それがわかっていれば、その時点を境に前と後で区分けしてそれぞれを対角化してしまえるのだが、それがいつなのかがわかっていないため、しばしば問題が堂々巡りの様相を呈して対角化ができず、問題そのものを解きようがない、ということがしばしば起こるのであり、それこそが非線形問題の困難の原因だというわけである。
ただ逆に言えば先ほどの、ループが生じるかどうかという初期値敏感性の話は、各成分にこうしたスイッチがついていてもいなくても一応は起こりうる話で、その意味で問題が非線形か否かということ自体は必ずしも最も決定的な話ではないことがわかる。
そのため人工知能が無限に発展を遂げた状態での真性シンギュラリティを専門的な立場で議論する際には、上のことを一応頭に入れておくことが望ましいわけである。
これらが組み合わされると無限に発達した人工知能のアキレス腱になる
それはともかく、話を戻すと、先ほど述べた3つほどの条件が組み合わさってしまった場合には、ビッグデータ万能論そのものが根底から揺らいでしまうことがわかるだろう。
あるいは読者もそうだったかもしれないが、これまで人工知能と情報ネットワークに関して、次のことが一つの常識として世の中で信じられてきたように思う。つまり将来、巨大な人工知能をグローバルなネットと世界全体で統一的に結合して、そこから桁外れな量のビッグデータを自動的に収集し、それを基に人工知能が自己プログラミングを行っていくシステムを作ってしまえば、無限に能力を向上させられるはずだということである。
これは古くからSF作品などで語られてきたことで、そのネットワーク化された人工知能は、発達の末についには神と同等の存在へと進化を遂げるのではないか、というストーリーもしばしば語られてきた。
しかし実はそこには大きな盲点があり、それらを整理すると、まず最初の二つの問題、つまり「全く同じ条件で実験を複数回繰り返さないと全成分を特定できない」、および「社会が何かを経験すると成分の値が変わってしまう」によって、たとえビッグデータと情報収集ネットワークが無限に発達しても、データの微小な取りこぼしをゼロにすることは原理的に不可能であることがわかる。
そしてそこに初期値敏感性が加わった場合、その絶対に残ってしまうデータの微視的な取りこぼし分が、結果に巨視的な違いとして現れ、答えが大まかに黒か白かという根本的なレベルで結果を完全に狂わせてしまう可能性をどこまで行ってもゼロにはできない。
そしてそれをデータ量でカバーしようとすると、非可算無限個のデータが必要となってしまうため、たとえネットに蓄えられる情報量を無限大にしても原理的にそれができない。
おまけにこれらの条件はさほど特殊ケースでなくてもごく一般的に現れるもので、これでは到底神への進化どころではなくなってしまうことは明らかである。
条件はさらに厳しくしても議論が成り立つ
そして今までの議論では「人工知能が無限に発達した状態」に関して、想像しうる最も高いハードルを設定する必要がある、ということで
・演算速度とメモリー容量が無限大になっている
・人工知能自身がプログラミングを行ってどんどん自己進化を進められる
の二つを条件として想定していた。
それが上の議論を踏まえると、そこにさらにもう一つ
・人工知能が巨大ネットのビッグデータと結合して無限の情報取集能力をもつようになる
という条件が加わることになる。
これら3つを合わせれば、恐らくこれは現在考えられる限り最も高いハードルであることは、読者も同意いただけるだろう。しかしそれを想定した上でも、なおもその壁は超えられないことになり、われわれのこれまでのSF的な常識は大きく揺さぶられることになるわけである。
そしてここでもう一つ指摘しておくと、先ほどの図1−3−15を見れば一目瞭然でわかるように、この際に数え上げるべき潜在的なルートの本数は、作用マトリックスのサイズ拡大に関して指数関数で幾何級数的に増大する恰好になっている。
つまりこれを見るならば、以前からの重要命題「問題のレベルを上げると人工知能にかかる負担は幾何級数的に増大する」が、完全に現れていることがわかるだろう。
対戦場所に関するまとめ
ではここで、対戦場所に関する結論をまとめておこう。以上の議論では、それは三つほどの条件として整理されていた。それらを以下に列挙すると
条件1・相互作用成分の情報決定が「神の視点」で行えない
これはチェスや将棋などで問題になることで、単にそれらの盤面が有限であるということ以上に、人工知能の優位をもたらす決定的な要因となっている。
つまりチェスや将棋の場合には、どの駒がどう動けるかの基本設定はルールブックによって規定されており、ルールの入力を「神の視点」で行うことができる。
それに対して一般の場合には、実験や観察のデータからそうしたルールを割り出す必要があるのだが、世の中のほとんどの問題では、データとして得られているものは実は何個もの構成要素による複数の影響が全部足し合わされたもので、そこからルール(相互作用成分)を割り出すには、それらを全て分離せねばならない。
実はここが大きな盲点で、それを行うには複数回の実験を全く同じ条件で繰り返さないと、全部の成分を特定するのに必要なデータを得られないのだが、現実にはそれはできない場合が多い。そのため「神の視点」がない一般の場合だと、この原理的な問題が人工知能の完全勝利を難しくすることになるのである。
こうしてみるとチェスや囲碁将棋では、もともと盤面上の手の数が有限値に限られているだけでなく、ルール入力の際に「神の視点」が保証されており、人工知能が極めて有利な条件になっていたのである。そのためチェスや囲碁将棋の名手に人類側の代表でエースを引き受けてもらうことは、最初から無理があったのであり、人間側は「神の視点」がない場所を対戦場所に選ぶ必要があったわけである
ともあれ一般に対戦場所を、人間側が勝ちやすい場所を○、人工知能が有利な場所を×で評価すると、この条件に関しては、自然科学や社会科学のほとんどの問題は(人工的なシミュレーション実験を行う場合などを除けば)、実験データからルールを割り出す必要があるため基本的に○で、囲碁やチェスをはじめとするゲーム一般は基本的に全て×である。
条件2・ルールそのものが情報の吸収で変化する(対象自体が学習能力をもつ)
これは、扱う対象である社会などの側が、経験によってどんどん情報を吸収し、自らを変化させてしまう性質をもっているかどうか、ということである。
特にこれは先ほどの「条件1」と一緒になると始末に負えなくなり、その場合にはデータ収集のために実験を繰り返すごとに、社会の側がそれを学習して自分の中でルールを次々に変化させてしまうため、完全なデータ収集が原理的に不可能となってしまう。
また帰納型メソッドを用いて、その学習によるルール変化のあらゆるパターンを洗い出し、それを虱潰しに制圧しようとしても、問題のレベルを拡大するに従って必要なデータ数が幾何級数的に増大し、ついには非可算無限個になってしまうという障害に遭遇する。
そして社会などは基本的にそういう性質をもっているが、それに対して自然科学では(量子力学がからむ問題を除くと)古典的な多くの問題は、基本ルールは一定不変で変化しないので、たとえ「神の視点」がなくても、人工知能側が有利になってしまう。
例えば現在の気象予報などではコンピューター計算による天気予報の正確さが、気象予報士の能力をしばしば圧倒しており、人間の気象予報士の将来的な存在意義はただそれを人に伝えるアナウンサーになっていくと見られている。
しかしそれは、気象予報という場所が「自然界は学習能力をもたず、そのルールは情報流入では変化しない」という性質をもつため、この条件からすれば人工知能に有利な環境が生まれてしまっていることによるのである。つまりここは、気象や大気の動きという現象だけが独立した形で閉じた学問として成り立っており、その世界内部のルールは変化しないため、重大なデータの取りこぼしがない限り、基本的に人工知能が優位に立つことになるのである。
一般的に整理すると、この条件に関しては、人間社会を扱うほとんどの問題が○、自然科学の多く(ただし量子力学の話などとは無関係のもの)が×で、ゲーム一般も(ルールが変化しないから)×である。
条件3・対象のどこかを僅かに変えた影響が全体に巨視的に現れる
これは「入力データの微視的な誤差が、結果そのものを黒か白かというほどに巨視的に分けてしまうことがあるか」ということである。それは別の言葉で言えば「対象や系が初期値敏感性をもつかどうか」ということになるが、実は先ほどの二つの条件も、この条件があってこそ無視できないものになる。
これは人間の立場からすると、もしこの条件が「○」なら、例えば芸術における「神は細部に宿る」の言葉のように、人間側がその初期値の僅かな誤差を利用して、人工知能が作れないような作品を作ることが初めて可能になるわけである。
そしてその基本メカニズムは物理的に見ると、要素同士の相互作用がループを作って増幅することで発生し、さらに数学的に詳しく言うと、系内部で各要素が他の要素と相互作用する平均個数が2.718……個(=e個)以上の場合に、そういう状況が出現しうるのである。
そしてこういう場所では、どこかをいじった影響が思わぬ場所に現れるので、それをカバーするためにどうしても全体論的アプローチが要求される。要するに人間側はそのような場所を対戦場所に選ばないと、実質的に人工知能への対抗はできないのである。
その観点から見ると、実は文系理系を問わずほとんどの場所が、本来はそういう条件を満たしており、むしろ例外的だったのは18世紀の天体力学での太陽系の問題などである。しかし近代は社会全体が強引にそれを真似て、本来は全体として捉えるべき問題を細分化して縄張りの中でタコツボ的に扱い、実験室や狭い世界の中だけで成り立つシステムや文化を量産してきたと言える。
確かにそのように物事をパーツごとに分割して扱うことは、産業社会や大衆社会の到来とその要求にはマッチしていて富を生むにも有利であり、19〜20世紀にかけて人類に勝利と栄光をもたらしてきた。ところが21世紀に入ると、皮肉なことにそうやって世界を耕したことが、人工知能が力を振るえる場所を提供することになった。
つまり本来は攻略のやりにくいはずの文系などの領域でも、そのように狭く区切った恰好にすることで、それぞれの内部を人工知能が虱潰しにすることが容易になってしまうからである。
一方自然科学の場合、狭い専門技術の中だけで成り立つ世界は、特に方法論自体がパターン化してしまっている場合には、やはり人工知能に有利な環境になりやすい。
しかしだからといって「文系=人間が有利、理系=人工知能が優位」と考えるのは早計で、理系の学問もランクを上げて本物の中の本物になっていくと、そこでは必ずしもそうではない。つまりそれが単なる技術レベルの問題からもっと上の思想レベルの問題に上がっていくと、そこでは文明や社会思想の影響と関連をもってきて、全体論的アプローチが不可避的に要求されてくるからである。
そして問題を一段広い視野から捉え直す場合には、しばしば古い方法論を捨てて新しく構築し直す必要が生じるが、その際に視野を大きく拡大するほど、パターンを虱潰しにする手間が幾何級数的に増大しやすくなり、最終的にその手間が非可算無限個になってしまう可能性に直面することになる。
そのためこの条件についてもあらためて整理すると、一般に学問的な方法論がルーチン化していて、狭い専門領域に分割して扱えるような領域だと、人工知能の追撃を振り切ることが難しい。
しかし実を言えばそういう学問は後世から見れば二流の業績で、本当には特筆すべきものとして後世に残るのは、むしろその方法論自体を確立して、二流の学者でも扱えるように分割やルーチン化を行うことに成功した人の方なのである。
そして新しい方法論を樹立する際には、前より一回り大きな世界を視野に入れて、多数の要素間の相互作用がからむ問題にまともに取り組むことが必要になる。そういう系は分割もできないし(つまり並列処理も使えない)、初期値敏感性も生じやすい。そのため理系の世界といえどもそういう本物中の本物に関しては、この条件は基本的に「○」である。
それに対して、実験室や狭い世界の中だけでタコツボ的に成り立つ学問やカルチャーなどは、全体論も要求されず、その狭い世界だけを人工知能が虱潰しにすることが容易になるため×になる。またこれを数学的な観点から厳密に見た場合「平均相互作用がe個未満」という条件があると、分割やルーチン化ができる上に初期値敏感性もないので、そういう場所は×である。
そして対戦場所についてこの3つの条件を見たとき、もし「×」が2個以上なら人工知能が基本的に有利で、将来的に人工知能が無限に発達していったとき、そういう場所では人間側が負けていくと思わねばならない。逆に「○」が2個以上なら、たとえ人工知能がどれほど無限に発展しても、人間側が勝つ可能性が十分に残る、と思ってよいだろう。
実際に読者は周囲を見回して、人工知能が勝つだろうと言われているものについて、それを対戦場所という観点で上の条件に照らしてみるとよい。恐らくそこは大抵の場合、3つの条件のうち2個以上が×という条件になっているはずである。
そして上の条件はいずれも数学の根本原理から導かれることなので、十年や二十年の技術的進歩の影響はほとんど受けない。逆に言えば上の条件は、今後かなり長い期間にわたって、この種の問題で必ず参照すべき基本的なものとなると思われるので、その意味でも図を眺めてその結果だけでも覚えておいて損はないのではないかと思う。
第1部から第2部へ
ではここで第1部全体の論点をあらためて整理しておこう。まず第一点は、たとえ人工知能が無限に発達しても、そこには数学の「二つの無限」の話という壁があって、もし人工知能の演算速度、メモリー容量、情報収集能力の全てが無限に向上しても、それは原理的に超えることができない壁になってしまう、ということである。
そして第二点として、その状況は「三体問題」から発した作用マトリックスというツールを使うとクリヤーになり、このツールで計算機数学と、これまで人間の数学者が扱ってきた天体力学などがつながることで、人工知能が自分でプログラミングを行って自律的進化を始めた状況までをも見通して、最終的な結果を詰めることが可能になった、ということである。て、初めてその問題に本格的に駒を進められるようになる、ということである。
そして第三点として、それを応用して、どういう対戦場所なら人間側が人工知能に勝ち易いかをもう少し詳細に眺めると、入力の微視的な誤差が結果を巨視的に左右する「初期値敏感性」がある場所では、人間側が「神は細部に宿る」という形で人工知能を圧倒する可能性が残る、ということである。てる余地が残るのかを、きちんとリストアップすることができるということである。
さて以上のように第1部では、問題のレベルがある程度以上の難題になると、人工知能が原理的な限界に突き当たり、たとえ人工知能が無限に発達してもそれを超えられずに、お手上げになってしまうということが、数学の基礎からきちんと示された。
しかしここで話が終わったのでは意味がなく、それというのも、そういう難題には人工知能がお手上げになっただけでなく、人間側がそれ以上に手も足も出なくなる、というのでは話にならない。
つまり人工知能では扱えないようなそういう難しい課題であっても、人間の天才が直観力を駆使して扱える、という話にならなければ、議論自体にほとんど意味がないだろう。要するにそのことが理論的な可能性としてきちんと示されることで、初めて人間が人工知能に勝てるという結論が得られるのである。
そのため次の第2部ではそこに本格的に斬り込んでいくことになるが、そこではまず人間の直観力をどういうモデルで表現するかを考え、その上でもしそのモデルが正しければ、人間の天才の直観力は人工知能が超えられない「二つの無限」を何らかの形でクリアできる、している、という話まで行く必要がある。
それは恐らく今まで読者が一度も読んだことのない話だと思われるが、何しろ無限に発達した人工知能の存在を想定する以上、「真性シンギュラリティ」についての真の答えに到達するには、本来ならそこまでの議論を行わない限りできないものだったのである。
もっとも現実には人工知能の能力が本当に無限大になることはないし、無論人間側の能力もあくまで有限に留まる。それでも一旦、無限を想定した形で議論を行って答えを出しておくと、その結論自体は、話が十分大きな有限値に達した時点で確実に現れる。特にこの結論が「人工知能にかかる負担は幾何級数的に増大するが人間の直観力にかかる負担は算術級数的にしか増大しない」という表現形式になっていると、より確実に現れる。
そして読者は必ずしもこの第1部の長い話全部を覚えておく必要はない。次の第2部に進むに際して覚えておくべきことは、要するに演算速度やメモリー容量が無限大になっても人工知能側に限界が生じるという話と、芸術の「神は細部に宿る」という話が「初期値敏感性」と関連する形で、対戦場所の重要条件を構成する、ということぐらいで十分である。
そのため読者は上の第1部の話でわからない部分があっても、次の第2部では全く新しい話が始まると思って良く、むしろ人工知能との勝負を考える上ではそちらの議論の方が本命なので、安心して第2部に進んでいただきたい。