『AIで変わる法と社会――近未来を深く考えるために』2020/9/18
宇佐美 誠 (編集)

 めざましい発展をとげるAIは、いまや人間の職場を奪うのではないかと心配されるまでに至っています。AIに心は生まれるか? 個人の自律とAIの自律はどう違う? 大失業時代の正義論とは? 未来の刑事責任は? AI裁判官はありうるか? 来るべきAI時代の個人・社会・法について深く広く考察している本です。
「AIは人間のように心を持ちうるか」には多くの議論がありますが、個人的には「AIにはたぶん心がないのだろう」と考えて付き合っていけばいいのではないかと思っています。この本にも、次のような記述がありました。
「AIが医師よりも正確にがんの画像診断を出来るならば、診断を任せるのが合理的だろう。AIがこの病気の心理的衝撃を理解していないことは、診断を行う上で重要でない。」
 病気を治癒させるために大事なのは、正しい診断・治療行為を行うことで、それをするのがAIであっても医師であっても特に違いはないと思います。ただ違うのは、患者と共感できるか(患者に思いやりを持っているように見えるかどうか)に関して、患者側からは、医師のほうがずっと望ましいように感じられることでしょう。しかもこれは、もしかしたら治療に大きな影響があるのかもしれません。
 さて、とても興味深かったのは、「自律性を持たない動物に対して法による規制は無意味。ならばAIはどうなのか?」という議論。ここでは、「判断過程に不透明性・間接性がなく、何を考慮してどのように判断すべきかを命じればその通りに行為するだろうという意味においては自律性をもたないAIやロボットに対して、法はやはり意味を持たないのではないだろうか。」とありましたが、確かに、そうかも……と思いました。
 またAIやAIに指示された人間が問題を起こしたとき、「個人の刑事責任をどうとらえたらよいか」に関する議論も、とても考えさせられました。この本には、次のような記述がありました。
「仮に、AIを搭載した機器に導かれた人の意思決定や行為に刑事制裁を科したとしても、そこには刑事制裁が働きかけようとした自由意志がない以上、それは無意味であろう。せいぜい、ある時点での技術的・環境的状況を前提とする「標準的」な行為を求めるのが精一杯であろう。一方、そのようなAIを搭載した機器を製造する側に刑事制裁を科すとすると、ある時点で「標準的」とされる技術以外を用いることに萎縮が生じて、イノベーションが生じなくなり、結果的に特定の「標準的」な技術のみが保護されることになる。」
「どのような行為がどのように作用するかが、不明瞭になる可能性が高い、人間と高度な機械とが協調動作するという領域において、一回的な行為を問題とすることは、意味のない過剰な萎縮につながる危険性が高い。また、事前にあるべき行為や設計についての規範を完全に示すことも不可能である。したがって、徳倫理学的な観点から集合体の徳性に着目し、それをもたらす人の行為や設計のありようについて議論し、良き生について漸次的に明らかにしていくことこそが重要なのである。」
 AIの刑事責任は、AI自体を罰することに意味があるかどうかが不明です(少なくともAIの廃棄または修正の必要はあるでしょう)。でも代わりに刑事責任を負うものとして、そのAIの開発・製造者(人間)を厳しく罰することにすると、誰も新しいAIを開発したがらなくなって、未来社会の科学的発展を阻害することになってしまうという問題があり、これらに適切に対応できるような新しい刑事法の理論が必要のようです。この本では、次のように言っています。
「これまで違法性は、法益の侵害ないし行為規範の侵犯によって基礎付けられてきた。(中略)これからはむしろ、制裁規範の運用が、より望ましい人の存在態様へと繋がりうるのかが、正面から問われることになるだろう。具体的には、様々な動態的ネットワークによって構成される世界と、相対的により確実に結びつきうる法を探る作業が重要な意味を持つことになる。」
 AI(AIネットワーク)の発達を阻害せず、人間とAIがともにより良い社会を築いていけるよう法改正を行っていくべきなのでしょう。
 さらに「AI裁判官はありうるか?」に関しては、まだ先のことだろうという意見のようでしたが、個人的には、定型的で簡単な裁判ならば、近い将来、「AI裁判官はありうる」のではないかと思っています。この本にも、次のような記述がありました。
「裁判官が「法の言葉を述べる口」に過ぎないのであればそれはコンピュータであってもよい。そればかりか、「人の支配」すなわち人による恣意的な判断から人民を守ることに「法の支配」の意義があるのだとすれば、むしろ人ならざるAIの手になっているほうがよほどその理念に沿うことになるのではないか。」
 ……個人的には、人間よりは偏見が少ない(自らは偏見を持たない)はずのAIの方が、より平等で適正な判断をしてくれるのではないのか、と期待したいところですが、残念ながら、学習データによっては、AIは偏見を抱いてしまうことが分かっています。この本にも、次のような記述がありました。
「(人事採用や裁判の判決などの)これらの場面では、特定の個人に対する好悪のような感情を一切もたない不偏的な判断が求められる。近年、統計的機械学習で与えられた過去の人間による判断にひそむバイアスによって、偏った判断が生じたことが、明らかとなっている。アメリカの一部の州では、量刑判断でAIを用いたところ、アフリカ系アメリカ人の被告人の再犯率が白人の2倍と予測されていたことが分かった。(中略)しかも、AIの判断過程のブラック・ボックス化によって、人間は、十分に合理的な推論が行われたのか、感情によるバイアスが混入したのかを判別できない。そのため、感情をもつAIが人間に対して不公正な判断・処遇を行いうるという、「公正問題」と呼ぶべき難問が現れる。このように見て来ると、人間/機械の二元論を前提に、現在のAIが感情を書くことを言挙げして話が済むわけではない。むしろ、感情のあるAIが出現する場合に備え、それが引き起こしうる公正問題をどのように防止するかについて、検討を始めるべきなのだ。」
 ……AIをどのように育てていくべきなのか、AIが間違った場合、誰がどう責任をとっていくのか、真剣に考えていかなければいけない問題が山積みのようです。そしてこの問題への対処(法改正も含めて)は、のんびり静観してはいられない状況になっているようです。この本には、次のような記述もありました。
「(AIの)公正問題、権利・統御問題は、技術が進歩していくにしたがって緩和されていく「技術親和型問題」ではなく、技術の進歩につれて深刻化していく「技術相反型問題」である。そのため技術の進歩が後戻りできなくなる前に、法的権利や研究開発・利活用の倫理規制について議論し決定し実行するべきである。」
 ……まさにその通りですね……。
「AIで変わる法と社会」について、いろいろなことを考えさせてくれる本でした。これからの社会の在り方を考えるために、みなさんも是非、読んでみてください。
   *    *    *
 なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
<Amazon商品リンク>