
AI(人工知能)は労働力の代わりになることが期待されている。AIが労働を担う代償として、新たな雇用問題が発生する恐れがあることは指摘されつづけてきたことである。だが、われわれが払う代償はこれだけだろうか。現在、AIの社会実装に向けて「責任あるAI」というテーマが盛んに議論されているが、「責任あるAI」を追求する際に覚悟しておく必要があるのは、AIとその社会実装は社会構造の変化をもたらすだけではなく、社会システムの根幹を成してきた人間観や社会観の再考もしくは放棄をわれわれに強いるかもしれないということである。
「予見可能性」の危機
再考せねばならない人間観と社会観の例をひとつ挙げよう。
ある工場で、メンテナンスの時以外は触ってはいけない機械のボタンを誰かが触ったことで、その機械が故障した。その故障を目にした工場関係者はボタンを触った人に責任を求める。だが、そのボタンを押したのが工場に迷い込んでしまった小さな子供だったとしたら、その子供に求める責任は軽いものになるだろう。一方、その人が工員の1人で、機械の稼働中にボタンを触ってはいけないと再三注意を受けてきた人物だとしたら、その人に求める責任は重いものになる。
求められる責任の重さは、行為した人がその結果を予測できたか否かによって変化する。このような考え方は「予見可能性」と言われる。子供に責任を求めづらいのは、ボタンを押すことで機械が故障することを予測する能力がなかったからである。一方、工員に重い責任を求めるのは、機械が故障することを事前に予測する能力があったはずだからである。
行為と結果の間のスパンを長くとることもできる。その工員が酩酊状態で、機械の故障を予測する能力を一時的に失っていたとしよう。だが、この場合でも、工員に求められる責任は重くなる。工場で酩酊すれば、そのような危険があることを、飲酒前に予測できたはずだからである。また、やるべき行為をしなかった人にも責任を問いうる。工場で酒を飲んでいる工員を見て、飲酒を止めなかった同僚や上司は、その工員が機械を故障させる恐れがあることを予測すべきであった。
予見可能性に基づく「責任」の考え方は、昨今の製造物責任法等にも見出される。製造者は製品の安全性の限界を認識し、誤使用による被害を予測しなければならない。予測すべきことを予測せず、予防策が十分でない場合は、製造者は製造物が使用者に与えた被害に一定の責任を負う。
これをAIのケースに当てはめると、AIの誤作動や誤使用をAI開発者が予測すべき範囲を定めれば、「責任あるAI」の実現に一歩近づく、と考えられるかもしれない。しかし、AI開発者に普通の製品並みの予見可能性を期待することは難しい。開発者に予測を期待することは、開発者が彼ら自身の設計したAIの動作を把握しうる、という想定に基づくが、特に人を教師として機械学習を行うAIの場合は、この想定ができなくなる。このタイプのAIの動作は、開発者だけではなく、学習データを与えた数多くの人間たちとの協働によって作り上げられたものだからである。このような複数の人間の判断や意図が複雑に入り組んだAIが、どのような局面でどのような望ましくない動作をするのかを予測することは誰にとっても困難である。
AI開発者が実際に予測できることと、開発者が予見すべきだと社会が期待することの間には開きがある。それゆえ、予見能力の有無という伝統的な判断基準に照らして、「責任あるAI」の基準を定めようとしても、内容は乏しいものになるだろう。しかし、知りませんでした、予見できませんでした、と言って、AIの開発者が責任から完全に自由になれるということにはならない。というのは、被害をもたらしたAIを創った原因はその開発者にあるからである。(古代ギリシア語のアイティアーという語は、「責任」も「原因」も意味する)。創ったものが何を起こすかまったく予見できないとしたら、そのようなものを社会実装してはいけないし、開発もするべきではない、と決断することもひとつの責任の取り方のはずだが、そうすると開発されたAIが社会実装されることもなくなるだろう。……

「フォーサイト」は、月額800円のコンテンツ配信サイトです。簡単なお手続きで、サイト内のすべての記事を読むことができます。