基本読書

基本的に読書のこととか書く日記ブログです。

アルゴリズムを闇雲に信じることがないように、その限界を認識する──『アルゴリズムの時代 機械が決定する世界をどう生きるか』

グーグル検索をした時、Facebookをみたとき、ECサイトで「おすすめ」商品が表示される時──我々はいま、日常のあらゆる側面でアルゴリズムと接している。近年アルゴリズムはインターネットの中だけではなく、たとえば自動運転車とか、たとえば犯罪予測、国民の信用スコアの計算など、様々な側面で猛威をふるいだしている。

本書『アルゴリズムの時代』(原題『HELLO WORLD: How to Human in the Age of the Machines』)は、そうした状況に対して、アルゴリズムが実際どう使われていて、どの程度信用に足るものなのかを複数分野に渡って紹介していく一冊である。単純にアルゴリズムにはこんなこともできる! とかあんなこともできる! とその利点をずらずらと羅列していくだけの本ではなく、アルゴリズムの限界と、それを信用しすぎるとどんなまずいことが起こるのかにも多くのスポットを当てていく。

 さまざまな場面で、アルゴリズムは便利な威力を発揮してくれる。簡単に責任を転嫁できて、自分の頭で考えなくても近道を示してくれる。グーグル検索をして、つねに二ページ目も開いて、検索結果すべてにきちんと目を通す人が、どれだけいるだろう? 格安航空券予約サイトに掲載されているのが、本当に最安値なのかどうか、航空会社のサイトをチェックする人が、どれだけいるだろう? カーナビが薦めてくるのが最短ルートなのかどうか、地図と定規を持ちだして調べる人が、どれだけいるだろう? 少なくとも私はそんなことはしない。それだけはたしかだ。
 だが、きちんと区別しなければならないことがある。日常生活に役立つアルゴリズムをあてにすることと、本質を理解せずにアルゴリズムを闇雲に信じることは別の話だ。

というわけで本書は、影響力、データ、正義、医療、車、犯罪、芸術とトピックごとに章を割り振って、その分野でアルゴリズムがどのような働きをしていて、どこに限界があるのかを見比べていくことになる。著者はイギリスの数学者で、数理モデルで人間の行動パターン解析などをする研究者。とはいえ各分野の専門的なアルゴリズムに関しては素人なわけで、個々の記述的には薄さを感じる面もあるが、本書を読むことで今まさに発展しつつある主要なアルゴリズムの概観がざっと把握できるだろう。

再犯リスクは評価可能か?

具体的な事例としては「正義」がまずおもしろい。正義というと抽象的だが、具体的には裁判である。有罪か無罪かは、まだアルゴリズムには決めることができない。だが、データを分析することで、未来の予測、再犯のリスク評価は行うことができる。

再犯リスクを見積もることは、仮釈放の判断、社会復帰支援プログラムの選択、判決にも関わってくる。再犯リスク評価アルゴリズムは仕組みが非公表のものも多いが、有名どころとしてはランダムフォレストと呼ばれる手法を用いている。これは、たとえば、最初に万引、器物損壊、反社会的行為などの形で犯罪を分類し、その後万引であれば年齢が20〜24歳か、25〜29歳かの判定があり、反社会的行為なら前科の有無の判定、次に初犯か2回以上か──といった形で、だんだんと条件を絞り込んでいく。絞り込んでいった先に、その人物の再犯リスクスコアが表示されるのである。

これは決定木と呼ばれる予測モデルだが、再犯リスク評価アルゴリズム=ランダムフォレストでは、無作為に選んだデータを用いて小さな決定木をいくつも作り、新しい被告に対してすべての決定木をたどって、その平均をとることでリスク評価する作りになっている。実にシンプルなやり方だが、効果は大きい。実際の検証(2008年から13年のニューヨーク州でのすべての逮捕者の記録を用いた)では、アルゴリズムが再犯リスクが高いと予測した被告人は、実際に62.7%が保釈中に犯罪に手を染めた。

ロードアイランド州では、裁判でこの種のアルゴリズムを導入して8年が経ち、囚人数は17%減、再犯率も6%減少した。とくれば、なるほど、素晴らしい! ではすべての裁判でこの種のアルゴリズムを導入するべきだ──というほど簡単な話ではない。

偏見のないアルゴリズムは可能か?

ウィスコンシン州の裁判官はCOMPASという再犯リスク評価アルゴリズムを用いている。こちらは予測方法は非公表だが、COMPASによる予測では、白人よりも黒人の方が、再犯リスクが高いと「誤検知」される確率は2倍になった。COMPASでは予測のための要素に人種は含まれていないとのことだが、実際には偏見が含まれている。

偏見が含まれているアルゴリズムなんてありえない! 偏見のないアルゴリズムを作るべきだ。しかし、それが難しいこともわかっている。たとえば、通りを歩いている人を無作為に呼び止めてその人が殺人を犯すかどうか予測した場合、世界的に殺人者の96%は男性なので、高リスク判定を受けるのは圧倒的に女性より男性が多い。

大量の人間に声をかけて100人の「将来殺人をする」と評価された人を並べ、そこに殺人についての統計をあてはめると96人が男性、4人が女性の割合になる。殺人者予測アルゴリズムの判定精度を75%と仮定すると、集められた男性96人のうち25%は予測が外れているにも関わらず、誤検知によって殺人者扱いされてしまうのだ。

これは犯罪そのものやアルゴリズムとは関係なく、単なる数学的な必然性だ。結果が偏るのは、現実が偏っているからだ。殺人を犯すのは男性のほうが多いから、殺人を犯す可能性が高いと誤った予測をされるのも、男性の方が多くなる。

誤検知と見逃しというミスは今のところ必ず発生するので、犯人の割合がさまざまな属性にたいして均等でないかぎり、偏見のない評価基準を作るのは数学的に不可能だ。つまりはこれは、アルゴリズムの現在の限界ということになる。

犯罪の予測アルゴリズム

再犯リスク評価アルゴリズムと関連して、犯罪の予測アルゴリズムというものも存在する。たとえば、ロサンゼルス市警察はカリフォルニア大学の数学者チームと提携して、1000万件の犯罪記録をもとに、「地理上のどこで犯罪が起こるのか」を予測する犯罪発生地予測モデルを作り上げた。こちらもアルゴリズムと人間の専門家でそれぞれ予測し、比較として精度を出している。予測条件は厳しく、予測対象は12時間以内に起こる犯罪で、地図に150平方メートルの四角を20個配置することで行われる。

この予測勝負で、人間の専門家はロサンゼルスでは2.1%、イギリスで行われた実験では、5.4%の予測精度をみせた。一方、アルゴリズムは人間の専門家の2倍以上。イギリスでは、アルゴリズムが示した中で犯罪の5分の1が起きた(20%?)という。これだけみると人間よりも役に立ちそうだが、この予測をもとに危険地域のパトロールを増やせば、それだけ犯罪の検挙率も上がり、その地域が危険だというデータが積み重なり、さらに多くの警官を送り込むことになる負のループに陥りかねない。

おわりに

結局、重要なのは、アルゴリズムを盲目的に信仰するのではなく、適切な分量の信頼を配分することだ。将棋やチェスは人間よりもソフトの方が強くなったが、ソフトの力を借りた人間が適切に判断すればそれ以上に強くなる。今後より重要になっていくのは、アルゴリズムと人間の協働体制を整えていくことだ。この結論はアルゴリズム解説系の本ではお決まりの締めではあるものの、まあそれ以外はないだろうな。