- 作者: 平和博
- 出版社/メーカー: 朝日新聞出版
- 発売日: 2019/02/13
- メディア: 新書
- この商品を含むブログを見る
Kindle版もあります。
- 作者: 平 和博
- 出版社/メーカー: 朝日新聞出版
- 発売日: 2019/02/13
- メディア: Kindle版
- この商品を含むブログを見る
内容(「BOOK」データベースより)
AIはすでに人類に牙をむいている!会話の盗聴、合成ポルノの自動生成、就職面接での不当評価、ビッグデータを使った世論の操作、キラーロボットの誤作動―現実に起きた事件から、身近に潜むAIの危険を暴く。AI依存社会に警鐘を鳴らす、画期的AIリスク入門。
なんのかんの言っても、これからの時代を生きていくうえで、AIは、避けては通れないものです。
監視社会とか、「AIの暴走による、『ターミネーター』みたいな未来予想図」のような想像もしてしまうのですが、正直、自分が悪いことをしなければ、「監視社会」のほうが安全で生きやすい可能性もあるのではないか、と思うこともあるんですよね。
しかしながら、この本を読んでいると、そんな「まあ、それはそれで良いんじゃない?」というような楽観的な気分が、どんどん消えていきました。
この本の冒頭で、AIによる行動パターン分析で「テロリスト」と認定されたベテランジャーナリスト、アフマド・ザイダンさんの受難が紹介されています。
本人は、ジャーナリストという仕事上、取材源として、さまざまな重要人物の連絡先(テロリスト、とされる人も含む)を知っているのは当然のことだと述べているのですが、名指しで認定される、だけではなく、場合によっては、アメリカ軍のドローンで直接攻撃される、ということもあるのです。
米国政府の情報機関に「テロリスト」認定される、ということは、「命の危険」を意味する。
(テロリストだとの)嫌疑は、私の命を明白かつ差し迫った危険にさらすことになる。現状、多くの人々がこのようなフェイク情報の結果、命を落としていると考えられているのだから。
特にパキスタンでは、オバマ政権によるドローンを使ったテロリスト掃討の空爆が活発化していた。
ロンドンのNPO「調査報道ビューロー(BIJ)」の2014年の調査によると、2009年のオバマ政権発足から5年間で、パキスタン、イエメン、ソマリアへのドローン攻撃は390回以上に上り、2400人以上が死亡、うち民間人は少なくとも273人だったという。
この中には、テロリストと誤認定された人々も含まれていた、と見られている。
システム上、なるべく「本物」のテロリストを見逃さないようにすれば、「無実」の人々もテロリストと誤認定してしまう確率は高まる。逆に「無実」の人々を誤認定しないようにすれば、「本物」のテロリストを見逃す確率が高まる。この二つはトレードオフの関係だ。
「スカイネット」の機密文書によると、「アルカイダ幹部の連絡係」の検知システムでは、AIの精度を高めた結果、「本物」を見逃してしまう確率を50%とした場合、間違った人物を「連絡係」と認定してしまう確率は0.008%にまで抑えることができた、としている。
だが「スカイネット」が扱ったパキスタンの携帯電話ユーザー5500万人から見ると、0.008%のエラーでも4400という規模の人々が「明白かつ差し迫った危険」にさらされることになる。
ザイダン氏はこの騒動のあと、安全確保のためにパキスタンを離れ、ドローン攻撃の危険がないカタールのアルジャジーラ本社勤務になった、という。
0.008%なら、そう簡単に自分が被害を受けることはないだろう、と考えてしまうのだけれど、5500万人と母集団が大きくなれば、4400人もの人が、間違って殺される可能性があるのです。
その4400人のリスクは、テロリストに殺されるかもしれない大勢の人の命を考えれば「許容できる犠牲」だ、と言い切れるのかどうか。
車の自動運転にしても、社会全体でみれば、「人間が運転するよりも、事故による死者を減らせる」のだとしても、実際に自動運転の車で犠牲になった人が、それを「仕方がない」と受け入れられるのは難しいですよね。
そもそも、自動運転車の事故は、誰の責任になるのか。
AIがこのまま進歩していっても、そう簡単に「完璧」にはなりません。自分が常に、そのメリットを享受する側であるとは限らないのです。
また、AIに関しては、そのプログラムを組んだり、判断基準を設定したりするのが「人間」であるかぎり、「バイアス」から逃れるができないのではないか、という議論もされています。
ジョイ・ブォラムウィニ氏は、2018年2月に、ユーチューブ動画のもとになった研究を発表している。
研究では、IT大手が提供しているAIによる顔認識のシステムの精度を、男性と女性、白い肌と黒い肌で比較。白人男性に比べて、黒人女性に対する誤認識率が、かなり高いことがデータから明らかになったとしていた。
比較には性別、人種のバランスを考慮し、ルワンダ、セネガル、南アフリカのアフリカ3ヵ国と、アイスランド、フィンランド、スウェーデンの欧州3ヵ国の議会議員1270人の顔写真をサンプルとして使用、性別と肌の色(白い、黒い)で分類した。
その上で、マイクロソフト、IBM、フェイス++の誤認識精度を比較した。
その結果、三つのサービスの誤認識率は、いずれも男性より女性、白い肌より黒い肌の方が高い数値を示した。
性別と肌の色の組み合わせを見ていくと、三つのサービスでいずれも誤認識率が最も高かったのは肌の色の黒い女性だ。マイクロソフトでは20.8%、フェイス++では34.5%、IBMでは34.7%だった。
逆に誤認識率が最も低かったのはマイクロソフト(0.0%)とIBM(0.3%)で白い肌の男性、フェイス++では肌の黒い男性(0.7%)だった。
つまり、黒人女性なら3人に1人から5人に1人の割合で間違える、白人男性なら100人に1人以下でしか間違えない、という結果だ。
製作者たちに差別的な意図があったというよりも、顔認識ソフトを作ったIT企業が使ったサンプルに白人のものが多かったのではないか、とも述べられているのですが、「わざと」ではないのに、結果的に、人種によって認識率がこれほどまで違う、というのは、AIというのが、現状では「作る側にも利用する側にも、人種的な偏りがある」ことを示してもいるのでしょう。
2015年には、グーグルフォトで、黒人女性が「ゴリラ」とタグ付けされたことが物議を醸していましたし。
ちなみに、この本によると、2018年1月に「グーグルフォト」の画像認識の精度を検証したところ、「ゴリラ」「チンパンジー」「サル」では「検索結果なし」という回答だったそうです。
それをグーグルに問い合わせたところ、2015年の騒動以来、検索語、タグから「ゴリラ」を外し、「チンパンジー」「サル」もブロックしているのだとか。
現状、精度を上げるよりも、問題を起こさないことが優先されている、ということなのでしょう。
技術は日進月歩だけれど、バイアスや一部の悪意を持つ人々の影響を排除するのは、本当に難しい。
AIは万能には程遠いが、様々な点で、人間をはるかに超える能力を持つ。このギャップが、AIと人間のつきあい方をわかりにくくする。
この点について、先のインタビューで、ケヴィン・ケリー氏(『ワイアード』の創刊編集長)はこう述べている。グーグルの傘下企業が開発したAI「アルファ碁」は、世界最強棋士の一人を打ち負かしました。ただ、機械の順位を言うなら、すでに電卓は計算で人間に勝っている。AIの特徴は、発想が”人間らしくない”点です。多様なAIの知性を組み合わせることで、人間が新しい発想をする手助けになるんです。
20年ほど前、IBMのAI「ディープブルー」がチェスの世界王者、ガルリ・カスパロフさんを破りました。カスパロフさんはその後、人間とAIがチームを組む「ケンタウロス(半人半馬)」というチェスのスタイルを生み出します。今や最強のプレーヤーは「ケンタウロス」です。人間とAIは、競争ではなく、協働が重要なんです。AIやロボットといかにうまく協働できるかで、未来の給料も決まるでしょう。
電卓としては桁外れな能力を持つが、「公平」については理解できない。
かなりつきあいにくい相手ではあるが、「ケンタウロス」として何とかうまくつきあっていく。
そこで必要なのは、AIの危険性や様々な短所をあらかじめ理解しておく、ある種のリテラシーだろう。それをわきまえた上で、AIを使って社会をどのように変えていきたいのか、ということが問われてくる。
とはいえ、この手の「リテラシー」というのは、そう簡単に身に付けられるものではないし、悪意がある相手ほど、それをうまく隠そうとするものではあります。
どんなにすぐれたAIであろうとも、それを開発・運用するのが人間である以上、関わる人間の影響を受けるのです。
とはいえ、自律的に活動できるAIも、やっぱり怖い。
AIそのものが悪なのではなくて、それをどう使うか、ということに尽きるのですが、「すべての人が、包丁を凶器として使わない社会」というのも、想像しがたいものではあるのです。
- 作者: 新井紀子
- 出版社/メーカー: 東洋経済新報社
- 発売日: 2018/02/02
- メディア: Kindle版
- この商品を含むブログ (2件) を見る
- 作者: 松尾豊
- 出版社/メーカー: KADOKAWA / 中経出版
- 発売日: 2015/03/10
- メディア: Kindle版
- この商品を含むブログ (29件) を見る
- 出版社/メーカー: 日本経済新聞出版社
- 発売日: 2018/09/11
- メディア: Kindle版
- この商品を含むブログを見る