裁判も企業の人材採用も「気まぐれ」なのか? 意思決定の「ノイズ」と人間の未来

Daniel Kahneman, Olivier Sibony, Cass R. Sunstein『Noise: A Flaw in Human Judgment』

執筆者:植田かもめ2021年8月15日
書籍という「閉じた系」の知の集積に、言語の壁を越えながら、webからアクセスルートを作り出す――未翻訳の海外書籍をジャンル横断的に読み込み、緻密な論考を加えたブログで注目を集める植田かもめ氏が、選りすぐりの1冊を紹介する〈未翻訳本から読む世界〉。ノーベル経済学賞を受賞した異色の心理学者の新著が捉える「意思決定におけるノイズ」の働きとは?

 「バイアス」という言葉は、今ではビジネスの現場などで普通に聞かれるようになった。

 この言葉が「先入観」や「偏見」といったニュアンスで使用されるようになった起源には、ひとつの論文がある。心理学者のダニエル・カーネマンとエイモス・トヴェルスキーが1974年にサイエンス誌に発表した「Judgment Under Uncertainty: Heuristics and Biases (不確実な状況下での判断:ヒューリスティクスとバイアス)」である。人間の思考の系統的な偏りを研究した二人は「行動経済学」の創始者となり、心理学者にもかかわらず、カーネマンは2002年にノーベル経済学賞を受賞した(トヴェルスキーは1996年に死去)。その後にカーネマンが発表した『ファスト&スロー』(邦訳は早川書房刊、原著2011年)は世界的なベストセラーとなった。

 そのカーネマンが、法学者であり行動経済学関連の著書も多いキャス・サンスティーン、そして、戦略思考や意思決定の研究者であるオリバー・シボニーと共に発表した新著が『Noise: A Flaw in Human Judgment(ノイズ:人間の意思決定の欠陥)』だ(2021年5月刊)。『ファスト&スロー』の続編とも呼べる一冊である。本書では「バイアス」から一歩進み、「ノイズ」について論じられている。

ノイズとは何か?

 「ノイズ」とは、組織や個人間で発生する、判断のばらつきを指す。本書では「バイアス」と「ノイズ」との違いを射的にたとえて説明する。的の中心を狙って撃っているのに毎回同じ方向に外れるならば、そもそも銃口が曲がっているかもしれない。これが「バイアス」だ。一方で、決まった法則が無くランダムに的を外している場合、そのばらつきが「ノイズ」である。

 意思決定の誤りの原因にはバイアスとノイズの両方が存在する。そしてカーネマンたちは、バイアスに比べて検証される機会が少ないノイズの問題に焦点を当てる。

 例えば医療の分野では、同じ症例に対して、複数の医師が異なる診断を下すことがある。あるいは司法の世界では、保釈の決定などが「どの裁判官にあたるか」によって大きく左右されてしまう。

 ビジネスの世界にもノイズは多い。採用や人事評価は誰が評価するかによって大きく左右される。また、ある保険会社では、保険料の見積りが契約査定者によって大きく異なり、損益に大きな影響を及ぼしていることをカーネマンたちは発見する。

 言うまでもなく、人の思考や能力は均一ではなくバラバラだ。それが社会や組織に多様性や創造性があることの証左とも言える。

 けれども、公平で安定した判断が求められるケースにおいて、こうしたノイズを放置してもよいだろうか。カーネマンたちはよりノイズの少ないフェアな社会を実現すべきだと主張する。

どうすればノイズを減らせるか?

 しかし、組織における個人の判断のばらつき自体は決して新しい問題ではないだろう。多くの組織は「標準化」や「属人化の排除」といった名目でノイズの除去を目指している。

 本書の特長は、ノイズにはどのような種類が存在し、どのような対策を取り得るかを細かに体系化している点にある。

 例えば「レベルノイズ」と呼ばれる問題がある。従業員の仕事ぶりを複数の人間が5段階で評価するとき、ある評価者と別の評価者の「5点」という評価は、同じ基準に基づいているかどうかは分からない。こうした判断尺度のズレに起因するのがレベルノイズであり、基準を具体化することが対策となる。

 また、情報を「順を追って出す」(Sequencing Information)こともノイズを減少させるために有効である。例えば犯罪の科学捜査における指紋照合について、米国のある研究者は、事件に関する情報を一度に全て担当者に渡すのではなく必要な範囲で順次提供していく手法を確立した。日常生活で私たちが自動の指紋読み取り機を使う場合と異なり、犯罪現場に残された断片的な指紋を証拠として採用できるかどうかは専門家の「判断」を伴う作業である。この判断は、事件に関する周辺的な情報まで与えるとかえって揺らいでしまう。情報は多ければ多いほど良いわけではなく、あえて情報を限定した方が妥当な意思決定ができる。他の分野にも応用できる手法だろう。

 他にも「複数の人間の意見を取り入れろ。ただし、関係する人間を一度に集めず、それぞれ独立した意見として聞くべき」「直感で判断してもよい。ただし直感を使うタイミングは遅らせるべき」などの実践的なノウハウを、豊富なケーススタディをもとに本書は提唱している。

意思決定にアルゴリズムを活用する

 ところで、人間による意思決定がノイズを生むのだとすれば、根本的な疑問がわいてくる。そもそも人間による意思決定を減らしてしまえば、ノイズを減らせるのではないのか?

 カーネマンたちは本書で、AI(人工知能)などのアルゴリズムによって人間の判断を代替させる可能性についても論じている。人間の認知能力の限界を超えた膨大なデータを活用して、統計的なパターンを認識することはAIが最も得意とする作業だ。

 しかし近年では、AIを採用や人事評価などに活用することの倫理的な問題も多く指摘されており、AIに「説明可能性」をより求める傾向も強い。リクルートキャリア社(当時)が運営する就活支援サービス「リクナビ」がAIを使って学生の内定辞退率を算出し、そのデータが取引先企業に販売されていたという問題は記憶に新しい。米国のある企業では、求職者の人種や住所や出身地が、離職率と非常に高い相関関係を示すというデータを得て、履歴書のフィルタリングを行う際の基準として使用していたケースがある。中立で公平な判断を行うはずのAIが、かえって差別や偏見を固定してしまう場合があるのだ。数学者であるキャシー・オニールが著した『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』(邦訳はインターシフト刊、原著2016年)は、こうした問題を提起している。

 オニールの著作が指摘する問題点にも目配りをする一方で、本書のスタンスは明確だ。医療や司法などの分野も含めて、アルゴリズムをより積極的に活用していくべきだとカーネマンたちは提唱する。その理由を乱暴に要約してしまうと「AIもミスをするが、人間の方がもっとミスをするから」である。

 それでは、ノイズを減らせるならば、どのような意思決定であってもアルゴリズムに代替させてよいのだろうか。本書の内容から少し飛躍させて、この点を考察してみたい。

「人間が判断する自由と責任」の未来

 カーネマンたちは本書で「人間の重要な意思決定を全てアルゴリズムが置き換えることは無いだろう」とバランスを取りつつも、基本的にはアルゴリズムの積極導入を推奨する立場を採る。ノイズをより削減できるからである。

 例えば、もし人間よりもかなり高い確率で公平な判決を下せるAIアルゴリズムが実現したとしよう。「ノイズを減らす」という観点だけで考えるならば、人間はその判決に介入すべきではないはずだ。

 また、人事評価や採用において、バイアスやノイズの影響を受けない完璧なAIアルゴリズムが実現したとしたら、企業は人事評価に膨大な時間を使うことをやめて機械に任せた方が合理的なはずだ。本書が紹介するある調査によると、企業に属する「あらゆる人間」は、パフォーマンス評価(報酬や等級を決めるための従業員の成績や能力の評価)を嫌っているという。さらに別の調査は、パフォーマンス評価のノイズがいかに多いか、つまり簡単に言うと人事評価がいかに時間の無駄であるかを示唆している。

 しかし、たとえ一定のノイズが残るとしても、裁判や企業の人事採用といった判断には、人間が介入できる自由(あるいは介入する自由)を残すべきではないだろうか。なぜならば、意思決定の責任を負う主体は、どこまで行っても人間だからだ。

 現在の法環境においては人間が責任を負わざるを得ない。自動運転車が事故を起こした場合に誰が責任を負うか等、近年ではAIの行為と法的責任が議論となっている。AIの製造者なのか使用者なのかといった違いはあっても、AIに法律上の人格が現時点では認められていない以上、責任を問われるのは人間である。企業の採用においても、ある人を採用した結果、業績が向上するか低下するかの責任を負うのは採用を行った組織に属する人間だ。AIに「説明可能性」を求める理由も、それを使う人間が最終的な説明責任を問われるからである。逆にいえば、責任を負う主体こそが(あるいは責任を負う主体だけが)、自由を保持できるのではないだろうか。

 ただし、人間の自由を守るということは、人間の誤りを甘受しなければならないということも意味する。つまり、ノイズの多さと人間の自由との間には、トレードオフがあると考えられる。

 オルダス・ハクスリーの小説『すばらしい新世界』では、全てが管理された安全で幸福な社会が実現している。つまり「ノイズゼロ」の社会である。そして、これに異議を唱え、不都合があっても自由であることを要求する主人公に、管理社会の統制官は言う。「つまりきみは、不幸になる権利を要求しているんだね」と。

 これからAIが社会に普及するにつれ、私たちは不幸になる権利を要求することになるのだろうか。そんな愚かしいことがあるだろうか?

 カーネマンの生涯の共同研究者である故エイモス・トヴェルスキーは、自分たちが研究しているのは「人工知能」=Artificial Intelligenceではなく、「人間特有の愚かさ」=Natural Stupidityである、とかつて語ったという。マイケル・ルイスのノンフィクション『かくて行動経済学は生まれり』(邦訳は文藝春秋刊、原著2016年)に描かれている逸話である。

 私たち愚かな人間は、「気まぐれ」で裁判を行い、「好き嫌い」で採用活動を行うかもしれない。けれども、人間の意思決定の責任を負うのが人間である以上、自由を完全に捨ててAIに 全ての判断を任せていいのだろうか。たとえそれが、ノイズを増やす、つまり、公平で安定した判断を妨げるとしても、である。そのノイズは、「自由」と「責任」という価値を守るために、社会が支払うべきコストではないだろうか。そして、「自由」と「責任」は、そのコストを支払ってでも守るべき重要な価値だと思うのだが、いかがだろうか?

記事全文を印刷するには、会員登録が必要になります。