基本読書

基本的に読書のこととか書く日記ブログです。

銀河サイズの超知能AIはどのように思考するか? などはるか未来の知能の在り方が模索される──『LIFE3.0――人工知能時代に人間であるということ』

LIFE3.0──人工知能時代に人間であるということ

LIFE3.0──人工知能時代に人間であるということ

この『LIFE3.0』は人間の知能を遥かに超えた超知能AIが出現したら何が起こり得るのかを、AIの安全性研究や有識者会議をとりまとめる著者が記した一冊になる。

超知能AIや、シンギュラリティ(技術的特異点)概念はどうやってそれが起こり得るのか技術的な道筋もわからないし、起こった後どうなるのか予測も不可能なので、この手の本は大抵できの悪いサイエンス・フィクションになっているのだけれども、本作はその中でもわりとできの良い方である。SFなのには変わりがないが、現在の技術的な観点からがんばって予測しようとしていて、その道筋自体はおもしろい。

書名に入っている「LIFE3.0」は、著者が生命をレベル分けした概念にあたる。話の本筋からするとほぼ関係のない概念なのでどうでもいいのだが、意味がわからないと気持ちが悪いだろうから、一応説明しておこう。著者は生命を3つの段階に分けていて、1.0は通常通り進化する生命。2.0はハードウェアは進化するが、ソフトウェアはデザインする(人間)。3.0はハードもソフトもデザインする。たとえば人間が100万年生きられるような身体に作り変えられるようになったらここになるだろう。

本書で展開していく話は、この3.0に至った先、AIが発展していって人間を超えた時にどのように我々の安全を確保するのかという安全性についての研究と、我々人類は銀河を超えて広まっていくことができるのかというはるか未来の話である。

AIの安全性研究

たとえば、チェスや将棋がくっそ強いAIのような特化型ではなく、これやっといて、といったらなんでもやってくれるような汎用的な人工知能をAGIと呼称するが、本書ではこれがもし実現したら我々はどうなるのか、何を備えるべきなのかをいろいろ語っていくことになる。現状、これについては様々な意見がある。

たとえば、そうしたデジタル生命的な存在は宇宙の次のステップとして必要不可欠なものであり、彼らを作り上げたとしたらそれを解放してやればいい結果が現れるだろうとするデジタルユートピア論者。著者がいあわせたパーティで話したところ、グーグル創業者のラリー・ペイジがそうだったという。一方で、一緒に会話をしていたイーロン・マスクはデジタル生命が我々の大切にしちえるものを破壊しないと確信している根拠を求め、酔っ払っていたのもあって言い合いになったそうだ。ちょっと笑ってしまった。『ラリーの方も何度かイーロンのことを、炭素ではなくシリコンでできているというだけで劣った生命形態とみなす「種偏見論者」と非難した。』

また、超人的なAGIを作るのは難しく何百年も実現しないのだからそんなことを心配するのはあまりにもばかげているという考えもある。著者は、そうした分断したAIコミュニティ全体を団結させ、有益なAIをいかにして実現させるか、そのための議論を主導する必要があると考え、生命の未来研究所(FLI)という非営利団体を立ち上げたのだ。『具体的に言うと、テクノロジーの力によって生命はかつてないほど繁栄するか、または自滅するかのどちらかだと感じ、我々は前者を望んだ。』

どれぐらいのスピードで広まっていけるか?

個人的におもしろかったのはAGI周りの話よりも先、はるかな人類の未来について考察しているパートである。たとえば、太陽は数十億年後に燃え尽きるのでもし我々がその頃まで生きているのなら太陽系外に出ていかなければならない。それは可能なのか。太陽系外に逃れたとしても宇宙の熱的死は逃れられるのか。遥か彼方まで逃げていくことは可能なのか。本書の後半ではそうしたテーマが扱われていく。

他銀河への入植を考える時に、この宇宙は膨張していてほぼすべての銀河が我々から遠ざかっているので、物理的な入植限界がある。たとえ光の速さでとんでいったとしても、170億光年離れた銀河には永遠に追いつくことが出来ず、そうした銀河はこの宇宙の98%を上回るとされているから、仮にこの広い宇宙のどこかに我々とは別種の知的生物がいたとしても、その大半とは物理的に出会えないと考えたほうがいい。

入植速度をあげるにはどうしたらいいのか? たとえば、10光年離れた恒星系へとレーザー推進システムでゼロから新たな文明を築くことができる自律行動型の小型ロボットを送り込み、そこから10年かけて新たなレーザーシステムと新たな小型ロボットを作り上げてまた別の空間領域へと放つことを繰り返せば、入植済みの空間領域は光速の3分の1の平均速度で全方向へ球状に広がっていくことになる。

宇宙の熱的死

そうして未来の文明が手近な100万個の銀河に入植できたとしても、ダークエネルギーが数百億年かけ、その領域を互いに連絡不可能な何千もの領域に分断してしまう。だが、超知能文明はそれを防ごうと、大規模な宇宙エンジニアリングを行おうとするかもしれない。恒星が遠くなる前に、自分たちで移動させるのだ。

たとえば2個の恒星が互いの周りを回っている連星系に、もう一個の恒星を近づけることで不安定にさせ、どれか1つを自分たちの望む方向へと弾き飛ばすなど。だが、そこまでやっても、100億だか1000億年だか先にくる宇宙の死からは逃れられない。宇宙の死については、今のところ3つのパターンが考えられている。永遠に膨張することで物質が希薄になったビッグチル、再び収縮するビッグクランチ、膨張速度が無限大になってあらゆるものが引き裂かれるビッグリップ。無論、それ以外のシナリオもありえる。時空が引き伸ばされすぎて粒状性が現れるビッグスナップ、空間が凍って致命的な泡が生じ、それが光速で膨張するデスバブルなどなど。

そうなった場合に生存できるのかなんてわかるわけもないが、物理的な世界で死を迎えるよりもシミュレーション上で我々の時間を遅くして超大な時間を生きていくことになるのかもしれないとして、その可能性も検討されていく。

おわりに

本書ではこの後、AGIが人間の「意図」や「目的」を理解した協力してくれ、さらに協働を継続させ続けるためにはどうしたらいいのか。「意識」とは何かを取り上げ、AIは意識を持ちえるのかを論じ、と一歩踏み込んだ話が展開することになる。

意識については壮大な想定をしていて、たとえば地球規模の「ガイア」AIが生まれた場合、意識的経験を(ニューロン信号の何百万倍も早い光の速さでやりとりを行えるとはいえ)人間と同じく1秒間に約10回しか持つことが出来ないし、銀河サイズなら全体的な思考を10万年にたった1回しか行えないことになる。それを避けた場合、分散されたサブシステムによって計算が行われるはずだが、意識的主体の一部分も意識を持つことができるのかという論争に繋がっていき(統合情報理論の予測によればそれは不可能であり、天文学的に大きなAIは意識を持たないか、大半が無意識によって構成される)、と終盤の方はややこしいのだが、それがめっぽうおもしろい。

もしAGIが現れたら──周りの、数百年単位の予測シナリオの話が展開する中盤あたりについてはたいした根拠もなく退屈なのだけれども、後半部分のこうやって紹介してきた銀河や宇宙レベルにおける知能の可能性についての話はSFとして楽しませてくれる。けっこう分厚いし、おもしろそうなところだけ読んでもいいかも。