琥珀色の戯言

3000冊以上の【書評】と500作以上の【映画感想】を、ちゃんと読んで、観て書いてきたブログです。話題になったあの本や映画の感想が、たぶんあります。新書、ノンフィクション、インターネット関連本が多め。

【読書感想】悪のAI論 あなたはここまで支配されている ☆☆☆☆

悪のAI論 あなたはここまで支配されている (朝日新書)

悪のAI論 あなたはここまで支配されている (朝日新書)


Kindle版もあります。

悪のAI論 あなたはここまで支配されている (朝日新書)

悪のAI論 あなたはここまで支配されている (朝日新書)

内容(「BOOK」データベースより)
AIはすでに人類に牙をむいている!会話の盗聴、合成ポルノの自動生成、就職面接での不当評価、ビッグデータを使った世論の操作、キラーロボットの誤作動―現実に起きた事件から、身近に潜むAIの危険を暴く。AI依存社会に警鐘を鳴らす、画期的AIリスク入門。


 なんのかんの言っても、これからの時代を生きていくうえで、AIは、避けては通れないものです。
 監視社会とか、「AIの暴走による、『ターミネーター』みたいな未来予想図」のような想像もしてしまうのですが、正直、自分が悪いことをしなければ、「監視社会」のほうが安全で生きやすい可能性もあるのではないか、と思うこともあるんですよね。

 しかしながら、この本を読んでいると、そんな「まあ、それはそれで良いんじゃない?」というような楽観的な気分が、どんどん消えていきました。

 この本の冒頭で、AIによる行動パターン分析で「テロリスト」と認定されたベテランジャーナリスト、アフマド・ザイダンさんの受難が紹介されています。
 本人は、ジャーナリストという仕事上、取材源として、さまざまな重要人物の連絡先(テロリスト、とされる人も含む)を知っているのは当然のことだと述べているのですが、名指しで認定される、だけではなく、場合によっては、アメリカ軍のドローンで直接攻撃される、ということもあるのです。

 米国政府の情報機関に「テロリスト」認定される、ということは、「命の危険」を意味する。

 (テロリストだとの)嫌疑は、私の命を明白かつ差し迫った危険にさらすことになる。現状、多くの人々がこのようなフェイク情報の結果、命を落としていると考えられているのだから。


 特にパキスタンでは、オバマ政権によるドローンを使ったテロリスト掃討の空爆が活発化していた。
 ロンドンのNPO「調査報道ビューロー(BIJ)」の2014年の調査によると、2009年のオバマ政権発足から5年間で、パキスタン、イエメン、ソマリアへのドローン攻撃は390回以上に上り、2400人以上が死亡、うち民間人は少なくとも273人だったという。
 この中には、テロリストと誤認定された人々も含まれていた、と見られている。
 システム上、なるべく「本物」のテロリストを見逃さないようにすれば、「無実」の人々もテロリストと誤認定してしまう確率は高まる。逆に「無実」の人々を誤認定しないようにすれば、「本物」のテロリストを見逃す確率が高まる。この二つはトレードオフの関係だ。
スカイネット」の機密文書によると、「アルカイダ幹部の連絡係」の検知システムでは、AIの精度を高めた結果、「本物」を見逃してしまう確率を50%とした場合、間違った人物を「連絡係」と認定してしまう確率は0.008%にまで抑えることができた、としている。
 だが「スカイネット」が扱ったパキスタンの携帯電話ユーザー5500万人から見ると、0.008%のエラーでも4400という規模の人々が「明白かつ差し迫った危険」にさらされることになる。
 ザイダン氏はこの騒動のあと、安全確保のためにパキスタンを離れ、ドローン攻撃の危険がないカタールアルジャジーラ本社勤務になった、という。


 0.008%なら、そう簡単に自分が被害を受けることはないだろう、と考えてしまうのだけれど、5500万人と母集団が大きくなれば、4400人もの人が、間違って殺される可能性があるのです。
 その4400人のリスクは、テロリストに殺されるかもしれない大勢の人の命を考えれば「許容できる犠牲」だ、と言い切れるのかどうか。
 車の自動運転にしても、社会全体でみれば、「人間が運転するよりも、事故による死者を減らせる」のだとしても、実際に自動運転の車で犠牲になった人が、それを「仕方がない」と受け入れられるのは難しいですよね。
 そもそも、自動運転車の事故は、誰の責任になるのか。
 AIがこのまま進歩していっても、そう簡単に「完璧」にはなりません。自分が常に、そのメリットを享受する側であるとは限らないのです。


 また、AIに関しては、そのプログラムを組んだり、判断基準を設定したりするのが「人間」であるかぎり、「バイアス」から逃れるができないのではないか、という議論もされています。

 ジョイ・ブォラムウィニ氏は、2018年2月に、ユーチューブ動画のもとになった研究を発表している。
 研究では、IT大手が提供しているAIによる顔認識のシステムの精度を、男性と女性、白い肌と黒い肌で比較。白人男性に比べて、黒人女性に対する誤認識率が、かなり高いことがデータから明らかになったとしていた。
 比較には性別、人種のバランスを考慮し、ルワンダセネガル南アフリカのアフリカ3ヵ国と、アイスランドフィンランドスウェーデンの欧州3ヵ国の議会議員1270人の顔写真をサンプルとして使用、性別と肌の色(白い、黒い)で分類した。
 その上で、マイクロソフトIBM、フェイス++の誤認識精度を比較した。
 その結果、三つのサービスの誤認識率は、いずれも男性より女性、白い肌より黒い肌の方が高い数値を示した。
 性別と肌の色の組み合わせを見ていくと、三つのサービスでいずれも誤認識率が最も高かったのは肌の色の黒い女性だ。マイクロソフトでは20.8%、フェイス++では34.5%、IBMでは34.7%だった。
 逆に誤認識率が最も低かったのはマイクロソフト(0.0%)とIBM(0.3%)で白い肌の男性、フェイス++では肌の黒い男性(0.7%)だった。
 つまり、黒人女性なら3人に1人から5人に1人の割合で間違える、白人男性なら100人に1人以下でしか間違えない、という結果だ。


 製作者たちに差別的な意図があったというよりも、顔認識ソフトを作ったIT企業が使ったサンプルに白人のものが多かったのではないか、とも述べられているのですが、「わざと」ではないのに、結果的に、人種によって認識率がこれほどまで違う、というのは、AIというのが、現状では「作る側にも利用する側にも、人種的な偏りがある」ことを示してもいるのでしょう。
 2015年には、グーグルフォトで、黒人女性が「ゴリラ」とタグ付けされたことが物議を醸していましたし。
 ちなみに、この本によると、2018年1月に「グーグルフォト」の画像認識の精度を検証したところ、「ゴリラ」「チンパンジー」「サル」では「検索結果なし」という回答だったそうです。
 それをグーグルに問い合わせたところ、2015年の騒動以来、検索語、タグから「ゴリラ」を外し、「チンパンジー」「サル」もブロックしているのだとか。
 現状、精度を上げるよりも、問題を起こさないことが優先されている、ということなのでしょう。
 技術は日進月歩だけれど、バイアスや一部の悪意を持つ人々の影響を排除するのは、本当に難しい。

 AIは万能には程遠いが、様々な点で、人間をはるかに超える能力を持つ。このギャップが、AIと人間のつきあい方をわかりにくくする。
 この点について、先のインタビューで、ケヴィン・ケリー氏(『ワイアード』の創刊編集長)はこう述べている。

 グーグルの傘下企業が開発したAI「アルファ碁」は、世界最強棋士の一人を打ち負かしました。ただ、機械の順位を言うなら、すでに電卓は計算で人間に勝っている。AIの特徴は、発想が”人間らしくない”点です。多様なAIの知性を組み合わせることで、人間が新しい発想をする手助けになるんです。
 20年ほど前、IBMのAI「ディープブルー」がチェスの世界王者、ガルリ・カスパロフさんを破りました。カスパロフさんはその後、人間とAIがチームを組む「ケンタウロス(半人半馬)」というチェスのスタイルを生み出します。今や最強のプレーヤーは「ケンタウロス」です。人間とAIは、競争ではなく、協働が重要なんです。AIやロボットといかにうまく協働できるかで、未来の給料も決まるでしょう。


 電卓としては桁外れな能力を持つが、「公平」については理解できない。
 かなりつきあいにくい相手ではあるが、「ケンタウロス」として何とかうまくつきあっていく。
 そこで必要なのは、AIの危険性や様々な短所をあらかじめ理解しておく、ある種のリテラシーだろう。それをわきまえた上で、AIを使って社会をどのように変えていきたいのか、ということが問われてくる。


 とはいえ、この手の「リテラシー」というのは、そう簡単に身に付けられるものではないし、悪意がある相手ほど、それをうまく隠そうとするものではあります。
 どんなにすぐれたAIであろうとも、それを開発・運用するのが人間である以上、関わる人間の影響を受けるのです。
 とはいえ、自律的に活動できるAIも、やっぱり怖い。

 AIそのものが悪なのではなくて、それをどう使うか、ということに尽きるのですが、「すべての人が、包丁を凶器として使わない社会」というのも、想像しがたいものではあるのです。


AIと憲法

AIと憲法

アクセスカウンター