- 作者: ジェリー・カプラン,安原和見
- 出版社/メーカー: 三省堂
- 発売日: 2016/08/11
- メディア: 単行本
- この商品を含むブログを見る
本書は副題に「人工知能時代の経済と労働の手引き」とあるように、人工知能や労働機械(ロボット)が一時的に雇用を減らすのは確かなことだと仮定し、その際に人類社会が遭遇するであろう不可避的な失業問題や、AIが罪を犯した際の法整備などについて政策レベルでどう対処していくべきなのかという、「その後」を語った一冊だ。
労働市場について
まず本書では人工知能時代の、各分野における問題とその解決策が取り上げられていくが、たとえば労働市場については、技術的な進歩により雇用が一時的に失われてしまう構造的な失業問題がある。進歩は新たな仕事=雇用も生み出すわけだけれども、現代における問題の本質は日々の技術的な変化があまりにも速く、労働者は新しい職業に必要とされる技能を身につける時間も機会も存在しないことにある。
この問題に現代の教育システムが拍車をかけている。たとえば「学校へ通い卒業後就職し勤め続ける」のは、就職後も技能を次々と適応させる必要がある時代にはそぐわないシステムだ。その上現状の職業訓練は、生徒に何を教えるかはおおむね学校側に決めさせており、求職者はそこで勉強したとして就職の役に立つ保証は存在しない。
本書ではこうした現状に対して、雇用主と学校が新たな形で協力する、住宅ローンの職業版をつくることでの解決を提案している。この案では、雇用主は「この技能を身につけたら雇用する」という同意書を発行することで、労働者は何を学んだらいいんだ? と迷うこともなく、技能の市場価値への保証を手に安心して訓練学校に通うことができる。学習コスト(費用)は就職見込みの企業から与えられ、労働開始後の賃金から天引きされる就業ローンによってまかなう形になる。
余剰労働力と技能の陳腐化という問題は、加速度的な経済の進歩がもたらした副産物であり、その点では温室効果ガスとまったく同じである。気候の変動に感心をもつのと同じぐらい、世界的な労働生態系の受ける潜在的なダメージにも感心を払うべきだ。
幾つか前提を簡略化してしまったし(企業にはインセンティブとしてこの仕組を導入後、法人税の優遇がされるなど)、この仕組で何もかも良いとまでは思わないが、何にせよ「新たな労働をめぐるシステム」が必要なのは明らかで、本書はこれまであまり語られることのなかった人工知能時代の議論の基礎を築いてくれている。
機械道徳、計算倫理学、責任問題
とはいえ、これで考えなければいけないことは終わりではなく、人工知能時代に向けて追いついていない議論はそれこそいくらでもあるといえる。たとえば自動運転車は、進行方向に犬が飛び出してきて轢き殺しかねない時に、乗り手を守るべきか? それとも飛び出た犬を轢き殺すか? という現代におけるトロッコ問題に直面する。
常に乗り手の安全性を確保するように道徳原理を選択的に実装するケースも考えられるし、機械学習で人間の道徳的行動を把握させ判断させるパターン、あるいは過去の事例に基づいて判断させるパターン(法例のような感じ)など対処法は無数に考えられるが、どの方式でプログラムしようが、問題は出てくるだろう。
「どのように判断させるべきか」と関連して考えなければいけないこととして、機械が誤った判断を下した時に、その責任は誰がとるべきなのか問題もある。自動運転に限っていえば、2015年にはカリフォルニア州が「運転手が運転席に座ること」を義務付けた案を公表し責任を明確にしているが、そりゃ常に運転手を「責任者」として乗せることをルールにすれば責任問題の解決は容易だ。しかし無人運転の利益を最大限得ようとするならば何らかの形でこの点をクリアしなければならないだろう。
前提として、無人機自体にバグがあるのであればその責任は開発元がおうことになる。そうでなかった場合の偶発的な事故(例:無人運転車が人を轢き殺した場合)は、所有者は関知していないわけだが、この際所有者は罪に問われるべきだろうか?*1
これについて本書では過去に奴隷制度があった時代の判例を参考にし、仮定を導いていく。奴隷は所有者の関与していないところで事件を起こす可能性があるので、機械学習によって個体差が出てくる無人機と構図的には似ているのだ。それによると、かつては奴隷が事件を起こした際、所有者が罪に問われることはなく、奴隷自身が責任をとる(奴隷が一時的に被害者へと貸与されるなど)形が例外なくとられていた。
こうした事例を受け、著者は次のように結論付けてみせる。『ロボットは所有者の法的[代理人]として行動していたのかもしれないが、所有者はロボットがなにをしているか知らなかったのだから、所有者には[本人]としての責任はない──責任はロボットにあるのだ。』──とはいうものの、「ロボットをどう罰するのか」という問題は依然として残る。こちらで著者は法人を参考にし、法人にしろ人にしろ、罪に対しては「目的、目標」に対する罰が与えられることに注目している。
たとえば罪を犯した法人は、懲役は科されない代わりにその目的=利潤の追求に対する罰として罰金を科されたり、市場への参入を禁止される。ロボットについても同様に、その目標遂行能力を損なわせる形での罰(被害者への貸与であったり、重要なデータベースを根こそぎ消去したり)が考えられるだろう。これで結局は所有者へのダメージとなるのに加え、ロボットに対して法人の皮を被せることで今日の法律の延長線上で処理できるようになるのはわかりやすいし、当たりそうな推測である。
おわりに
どのような先端技術によって仕事が失われつつあるのか(たとえば今は農業についても産業用ロボットがある。)についての詳細なレポートや、AI分野にはびこる無意味な擬人化がいかに一般社会への正確なAIやロボットの理解を混乱させ、政策議論を妨げているのかといった問題が丁寧に解説されており、AIノンフィクション全体のおさらいとしても良い出来で、この一冊から読み始めてもいいぐらいだ。
本書で行われている議論は当記事で触れた物はより深く行われており、取り扱いも広い(富の再分配方についてとか)。政策レベルの話がほとんどで個人として参考になる部分は少ないが、少なくとも大局的な観点で状況を予測する基盤にはなるだろう。
*1:これはたとえば自動運転車のような実体のあるものだけでなくクレジットカードの不正検出プログラムや株の自動取引システムなどの単なるプログラムも含む問題だ。