『生成AIの核心: 「新しい知」といかに向き合うか (NHK出版新書 705)』2023/9/11
西田 宗千佳 (著)

 ChatGPTをはじめとする生成AIの可能性と限界を語ってくれる本です。
 人間並みの文章力があることで脚光を浴びているChatGPT。ChatGPTなどの生成AIの基本的な仕組みはディープラーニングで、その学習方法には「教師あり学習」と「教師なし学習」があります。
 この生成AIを実現する上で重要な「トランスフォーマー」は、「単語の順序を見て、出力した時に一番関連している(アテンションが高い)のはどの組み合わせか」に着目する仕組みで、「次に出てくる単語はどれが自然か」をランク付けされた確率に則って並べていくもの。これについて、次のようにとても分かりやすく説明されていました。
「要は「関連している・注目すべきところ」にフォーカスし、ディープラーニング処理をその部分(最後の文章化に近いところ)に集中しているのが、生成AIの特徴である。
 これは先に述べた「記号学的アプローチ」そのものだ。文章の意味を理解しているわけでも、次に来るものの意味を考えているわけでもない。あくまで記号的に扱い、「今までに学習した内容から考えると、次にこの単語・文章が来るのが望ましいようだ」と逐次処理しているに過ぎない。(中略)
 なお、現在の生成AIでは、常に確率=ランクが高い言葉だけを選んでいるわけではない。文章を作る上では「ゆらぎ」があった方がそれらしくなるため、学習結果から選び方に補正が加わり、時々「そこまで最適でない」言葉も出てくる。だから、型からは少しズレた、人間っぽい文章ができ上がる。生成AIを使った場合、でき上がる文章は毎回少しずつ違う。それはこの「ゆらぎ」が影響しているためだ。」
 ……なるほど、そういう仕組みだったんですか。
 このように生成AIには「文章の意味を理解しているわけではない」という特性があるので、間違った答えを返してくる可能性は大いにあります。次のようにも書いてありました。
「生成AIをはじめとしたディープラーニングには、他にもやっかいな特性がある。それは「なぜその回答が出たかを正確に説明しづらい」ということだ。」
「(前略)大量のパラメータの中で、実際に答えに関与するものは少数であることはわかっているが、どこがどう関与しているのか、もはや人間では把握することができない。」
 ……このように生成AIには、多くの制約があるので、使うときには次のような注意が必要だとか。
「(前略)現在の生成AIを使う場合には「学習されていない、最新の情報を聞かない」「余り学習していないであろう内容を聞かない」「計算問題などを解かせない」という配慮は必要になる。」
 ……コンピュータなのに「計算問題が苦手」なんですか(笑)意外でした。
 またChatGPT が使われているBingチャット検索では、次のような工夫をしているそうです。
「(前略)ChatGPTの生成AIの欠点は「答えの根拠がどこにあるかわからない」ことにある。答えが正しいかどうかを判断するのは、結局人間である。それは、従来の検索であろうが、チャット検索であろうが変わらない。その際、正しさの根拠が示されていないと判断しようがない。
 そこでBingチャット検索では、生成した文章の基になった情報・根拠をリンクの形で埋め込むことで、人に判断の材料を与えている。内容に、索引のようにリンクが付いているのだ。Bingチャット検索が人間の代わりにネット検索し、情報を読んでまとめ直すからできることでもある。」
 ……これはとても良い対応策ですね! ChatGPTの答えが「正しい情報に基づいているかどうか」を判断しやすくなりそうです。
そもそも私たち人間には「コンピュータは間違わない」という固定観念があるので、ChatGPTが返してきた「計算結果が間違っているかを検算しなければならない」とか、「答えのファクトチェックをしなければならない」とかいうことに、まったく気が付かない可能性が大いにあります。だから当面の間は、ChatGPTの答えには、「この計算や答えは間違っている可能性があります」と併記して欲しいと思います。
 そういう問題はありますが、それでも本書の事例を読むと、生成AIは大いに使えるツールのように感じます。生成AIは「作業に近いもの」が得意なので、音声からの文字起こしや、定型文の作成・業務レポート作成(特定のパターンに基づく文章生成)、データ解析とその結果の視覚化、プログラミングなどの作業で、人間の仕事を大いに効率化してくれそうです。
 また生成AIは、教育分野でも大いに活用できるものだと思います。これについては、2023年7月に文科省が示した「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」が、とても参考になりそうです。このガイドラインでは、
「活用が適切でない例」として……
・いわゆる情報リテラシーが十分育成されていない段階において、自由に使わせること
・生成AIによる生成物をそのまま自己の成果物として応募・提出すること
・創作や音楽・美術等の表現・鑑賞など子供の感性や独創性を発揮させたい場面で、最初から安易に使わせること
・調べたり回答したりする用途で、質の担保された教材の代わりに使うこと
・教師が安易に利用すること。学習結果の考査にAIのみを利用したり、教育指導を実施せず、児童・生徒に安易に相談させたりすること
   *
 また「活用が考えられる例」として……
・情報モラル教育の一環として、教師が生成AIが生成する誤りを含む回答を教材として使用し、その性質や限界等を生徒に気付かせること
・グループ学習やアイデアを出す活動の中で、足りない視点を見つけ議論を深める目的に使うこと
・英会話の相手や、自然な英語表現の学習
 ……というものがあげられていました。これらの例は、教育分野だけでなく、一般企業での活用の面でも、参考になりそうな気がします。
 そして本書では、次のことも指摘されていました。
「日本の教育は教科書をベースに行われているが、教科書は「間違っていない」ことが前提となっている。そのため教育現場では、児童・生徒に対して「教材が提示する内容に疑問を持つ前提での対話はしていない」というのだ。生成AIにしろネット検索にしろ、出てくる答えには間違いも含まれる可能性がある。教育手法自体を「疑問を持ちながら妥当性を見出す」ものに切り替えていくことが優先されるべきだろう。」
 ……その通りだと思います。ただ、児童や生徒たちは、まず「正しいことを知った」上で、「間違っていることをどう見極めるか」、「間違いにどう対処するか」を学ぶ必要があると思うので、「間違ったことの書いていない教科書」も、今後も絶対に必要だとは思いますが……。
 この他にも、生成AIと著作権に関連して、アドビなど多くのIT企業が共同で「コンテンツ認証イニシアチブ(Content Authenticity Initiative、CAI)」という技術の導入を進めていること(CAI=どのツールでどんな編集を行ったか(来歴)がわかるようになる仕組み)や、G7広島サミットで、AIの運用ルールの検討の枠組み「広島AIプロセス」が合意されたことなど、参考になることをたくさん知ることが出来ました。
 生成AIの仕組みや使い方、さらにその課題について、とても分かりやすく教えてくれる本でした。生成AIは、今後の社会で大いに使われていくツールだと思います。みなさんも、ぜひ読んでみてください☆
   *    *    *
 なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
<Amazon商品リンク>