ChatGPTの時代に必要な「民主的な価値」の相互矛盾と向き合う力

執筆者:小塚荘一郎 2023年6月13日
タグ: AI
「ChatGPT」を開発した米企業「オープンAI」のサム・アルトマンCEO(最高経営責任者)が来日、その動向に注目が集まった(C)AFP=時事
AIの驚異的な進化と浸透のスピードに法制度は追いつけるのだろうか。「死角」を生まないためのポイントを、『AIの時代と法』の著書がある法学者・小塚荘一郎氏が解説する。

 ChatGPTなどの生成系AI(人工知能)が社会の注目を集め、AIが人類を滅ぼすのではないかと物騒な発言も聞かれるようになった。大学などの教育現場でも、学生がChatGPTを使ってレポートを書いてきたらどうするかなど、対応に追われている。

 とはいえ、AIに関する法制度のあり方については、第3次AIブームが一般化した2010年代後半から議論が進み、基本的な考え方は確立している。生成系AIもAIの一種なので、センセーショナルな話題に振り回されず、これまでに形成された考え方を適用していくことが重要であろう。

AIの使い方を考える

 AIに関して最も重要なことは、その使い方を間違わないような仕組みを確立することである。これは、「AIガバナンス」と呼ばれている。「ガバナンス」といえばコーポレートガバナンスを思い起こすビジネスパーソンも多いであろうが、コーポレートガバナンスとは、会社が間違いを起こさず、効率的に活動するための仕組みのことをいう。それと同じように、間違いを起こさず、効果的にAIを使うための仕組みが必要なのである。

 AIガバナンスの核心は、人間がどこで、どのように関与するかという点に尽きる。学生が生成系AIにレポート課題を質問し、出てきた回答をそのままレポートとして提出したら、それを採点してもまったく意味はない。生成系AIを最初に利用すること自体はよいとしても、学生には、その回答を参考にしながら、自分のレポートとして書き直してもらわなければならない。つまり、この場合には人間がAIのレビューをすることが求められるのである。

 しかし、たとえば医療機関がAIを使って画像診断をする場合、人間よりもはるかに高速で、大量のデータ処理ができる点にメリットがある。診断されたすべての画像を一枚一枚人間が再確認していたのでは、このメリットは失われてしまう。この場合、人間の役割は、AIによる診断システムの誤判断をできる限り小さくする仕組みを構築することと、誤判断の結果が医療過誤に直結しないように、そのリスクがある場合には再確認を入れることだといえよう。

 こうした仕組みを考え、実際に作っていくことがAIガバナンスである。現在でも、AIを組み込んだシステムのベンダー企業では、AIガバナンス原則を制定し、それにもとづいて社内体制を整備することが一般的になっている。これからは、そうした「AIガバナンス」の実践が、学校や官公庁なども含めたユーザーサイドの組織にも求められるのである。

「使いやすい学習用データ」の陥穽

 生成系AIの登場とともに改めて指摘されるようになった問題が、AIの学習にさまざまなデータが使われることの当否である。クリエイターからは、自分たちの著作物をAIが学習して、それらしい作品を大量に作り出すようになったら、クリエイターという職業は危機に瀕するという声も上がっている。

 AIの作り出す文章や画像がどれほど自然なものであっても、AIが人間と同じような意味で思考したり、創作活動をしたりするわけではない。AIは、「この要素とこの要素が高い確率で関連して用いられる」という相関性の法則を発見し、その組み合わせを利用しているだけである。そのために、現実の文章や画像などが「学習用データ」として大量に利用される。

 欧米では、何年も前から「データは21世紀の石油である」と言われてきた。

この記事だけをYahoo!ニュースで読む>>
カテゴリ: IT・メディア
フォーサイト最新記事のお知らせを受け取れます。
執筆者プロフィール
小塚荘一郎(こづかそういちろう) 学習院大学法学部教授。1992年、東京大学法学部卒業。同大学助手、上智大学教授などを経て、2010年から現職。総務省AIネットワーク社会推進会議構成員、電気通信紛争処理委員会委員、経済産業省消費経済審議会会長。主要著書として、『フランチャイズ契約論』(有斐閣)、『支払決済法――手形小切手から電子マネーまで[第3版]』(共著、商事法務)、『宇宙ビジネスのための宇宙法入門[第2版]』(共編著、有斐閣)、『AIの時代と法』(岩波書店)。
  • 24時間
  • 1週間
  • f
back to top