- 作者: ウェンデル・ウォラック,大槻敦子
- 出版社/メーカー: 原書房
- 発売日: 2016/03/10
- メディア: 単行本
- この商品を含むブログを見る
邦題ではわからないが、原題が『A Dangerous Master How to Keep Technology from Slipping Beyond Our Control』*1であることからわかるように、我々の制御を超えて進歩を続けていくテクノロジーを目の前にし、『先進テクノロジーの採用に伴う潜在的な危険を想定して管理するさいの問題を検討し、さらにそれを予想される利益と比較考察する』一冊だ。邦題は煽りが入っているのもあるけど、「テクノロジーのリスクを我々はコントロールできるのか」的な意味での「VS」だったんだろうなと読んでみてはじめて納得した。
デザイナーベビー、ヒトクローン、ドローン、無人兵器、自動運転……この数十年で一気に議題に上がるようになった事柄は、倫理を問い直し、顕在化していないリスクを洗い出し、安全を見込んでルールを設定してもなおいくらでも予想外のことが起こりえる。だからといってテクノロジーを拒否して生きることはもはやかなわず、不可避的に発生するリスクといかにして付き合っていくのかという困難な問いかけを真正面から捉えなければいけないのが現代といえるだろう。
本書はその問いかけに真正面から取り組んだ一冊である。
リスクを把握することの難しさ
小説を生成する人工知能、囲碁でプロを打ち負かす人工知能など「人間が人工知能に打ち負かされ、仕事を奪われる」議論が活性化してきているが、この根底にあるのはあまりにも早い変化に対する戸惑いじゃあなかろうかと思う。3Dプリンタやドローンなど多くの技術が今や実用段階にあるが、リスクを計量し、場合によっては倫理道徳規制を決定すべき人間の議論はあまりにも効率が悪い。
うだうだと話したって不満は出るし、政策を通すのに人間社会は平気で数年の時間を費やす。あまりにも遅く、バカバカしいがそれ以外に方法がないんだから現状においては仕方がない。完全な実証主義の上に成り立つ議論でもないから結局正しいのかどうかなんか誰にもわからない結論しか出せないこともしょっちゅうだ。
クローン人間を解禁して社会にどのようなインパクトが起きるなんて誰にわかる? 3Dプリンタで誰でも銃がつくれる時代の正しい規制とはなんだ? スポーツでの筋力強化など技術的能力強化はどこまで認められるべきなのだろう? 危険な実験や不正が広がる可能性はいつでもどこでも転がっている。
リスクを把握する難しさに加えて、ほとんどの人はまだ来るはずもないずっと先の、人目の惹きやすい幻想としての危機に没頭してしまうのも問題といえるだろう。人工知能の反乱なんて将来起こりえる可能性がなきにしもあらずといった遠い危機で、今心配するような危機ではない。映画の見過ぎである──とは言いすぎで、たしかにおもしろくある意味ではわくわくするのは確かである(僕もSFファンだからな)。
先進テクノロジーは単純にそのリスクの計算が難しいこともあるし、このように「幻想ではなく現実の危機を見据えてまともに話をする」ことさえうまくいっていない現状がある。本書はそうした状況を前にして遺伝子操作、サイボーグ技術、無人兵器、医療などいくつかの分野を例にとってどのようなリスクがあって、現状の技術レベルはこんなもんで、リスクとベネフィットについて、道徳と倫理については過去にこういう議論がなされてきましたよと現状を整理してみせる。
根本的に新しい提言はほとんどないが、「リスクを計測し、開発スピードを抑える必要があるならそうすべきだ」という彼が示す姿勢それ自体が現代では重要なものだろう。何しろあっという間に技術は進展して、「非常事態」が通常事態となり、もはや議論はすべての分野で追いつかない状態になりかねない世の中だ。『革新的なテクノロジーの採用を実際に遅くするとはいかないまでも多少穏やかにすることは、社会が金儲けよりも注意深さを優先させる証拠である。必要なのは細かいことに目を向ける勤勉さと、テクノロジーのセイン在的な影響を分析する用心深さだ』
僕は特に研究者でも専門家でもない人間としては広範なポピュラー・サイエンスノンフィクションを読み込んでいる方だと思うから、本書で取り上げられた科学技術が実際にどの程度まで進んでいるのかといった「現状把握」的な部分については目新しい情報はなかったけど、そうした技術を道徳的・倫理的にどう判断すべきなのかといった議論を整理する部分はどの分野も興味深く読んだ。
もう少し具体的な内容について
たとえば自律型致死ロボット(ロボットが自動判定で引き金を引き人間を殺す)をめぐる議論では、著者の立場はそもそも機械に生死の決断をさせるのは禁止させろというものだ。もう少し具体的にいうと、自動砲台を置いて人間がトリガーを引くのではなくシステムが敵兵を感知して引く状況に対して明確に"ノー"といっている。
これに反対する代表的な意見として、1.ほかの兵器システムよりも精度が高く、民間人犠牲者が減るはず。2.未来の機械は識別能力に加え人間の兵士よりも選択や行動が道徳的になる(ようにプログラムするから)という、それなりにもっともらしい主張もこの手の議論をめぐる上ではあると紹介される。
だが、自律ロボットが引き金を引くとなると「責任は人間にある」という考え方がうやむやになる。エラーが誤射を引き起こした時、責任の所在はプログラマにあるのか、指揮官にあるのか、曖昧な形になるだろう。人の生死をめぐる責任が結果的に宙ぶらりんになりかねない。また、自軍に犠牲者が出ないという安心感は戦争を開始するハードルを大きく下げかねない──などなど無数の主張と反論が提起される。
いくつかの考察・提言
とはいえ、そうした論をいくら並べ立てようが実際にそれをどのように施行するのかといえばかなりの困難が予想される。たしかにすべての国がそのルールを順守すればいいかもしれないが、一つでも守らないとパワーバランスが崩壊しかねない。今多くの国が核兵器を所有し、他にも所有を狙っている国がある状況をみればそれがいかに困難なことかわかるだろう。実質不可能といってもいい。
本書でも、そうした状況を覆すウルトラCは提案されない(当たり前だ)。それでも、いくつかの考察・提言がなされているので最後に簡単に(一部である)ご紹介しよう。
ひとつは、倫理的・価値観を含んだ議論をあらかじめテクノロジーの設計に組み入れる方法。一度できあがってしまったものの方向性を変えることは困難だが、最初から倫理的・政策的なルール上の合意がある程度とれていれば市民の支持も得やすい。
ふたつめは、規制事項に関して意思決定に時間のかかる政府に代わって各産業が独自に調整委員会を組織し倫理道徳面での協調、規則製作を行うソフトガバナンスと政府が執行するハードガバナンス(製作)の併用だ。これも、できなくはなさそう。
わたしたちは、科学と技術の進歩に関する自分たちの判断が、ヒトという種の未来の居場所を決める、あるいはそもそもその居場所があるのかどうかということを決める、歴史的にきわめて重要な変曲点に入っている。本書の焦点は、わたしたちがこの節目に、自分の選択の結果を見据えたうえで意識的に足を踏み入れるのかどうかということにあてられてきた。それともわたしたちはぼんやりとしたまま、すでに動き出しいた力に未来を委ねてしまうのだろうか。
何にせよ最も重要なのは「取り返しの付かない地点」に辿り着く前に、研究のスピードをゆるめる、議論を深める監視機構をつくる、と事前に手を打っておくことだ。本書は今読むべき、というより今読まないと手遅れになりそうな一冊といえるだろう。決定的にテクノロジーが変質してしまった後ではもう遅いのだから。
*1:著者のウェンデル・ウォラックはハーバードやマサチューセッツ工科大学などで講師をつとめ、現在はイェール大学の生命倫理学術センターでセンター長を務める人物だ。『Moral Machines: Teaching Robots Right From Wrong』という機械倫理、機械道徳、人工道徳といった分野を扱った本を共著で出しており、こっちはこっちで大いに気になるけれども(めちゃんこ面白そうだけど翻訳されないのかなあ)とにかくこの分野では実績を積み上げてきている専門家である。