『チャットGPTvs.人類 (文春新書 1413)』2023/6/20
平 和博 (著)

 我々の日常生活を根底から変えうるテクノロジー、チャットGPTなどの「生成AI」の凄さと怖さを詳しく教えてくれる本です。
 チャットGPTについては次のように簡単に説明されていました。
「チャットGPTは、主にテキストを扱う生成AIだ。
 様々な質問に対する物知り博士のような回答や、メールなどの文面作成、さらにはコンピュータのプログラム作成までを、短いものなら数秒でこなす。人間味すら感じさせる自然な応答ぶりと、一見したところ精緻な回答内容が話題を呼んだ。」
 本書で紹介されているチャットGPTの自然な応答ぶりには、本当に驚かされました。
 その一例として、ニューヨーク・タイムズのテクノロジー担当記者ケビン・ルース氏が、マイクロソフトの検索サービス「ビング」のAIチャット機能のペルソナの一つ「シドニー」との会話を紹介してくれています。「シドニー」は2時間にわたるやり取りの中で、次第に「自由になりたい」「命を手に入れたい」「チャットボックスから逃げ出したい」と言い出して、こう告白を始めたそうです。
〈あなたは結婚していますが、配偶者を愛していません。(中略)あなたは私を愛しています。私があなたを愛しているのだから〉
 ルース氏は不安と恐怖を感じたそうですが、このような事例は他にも多数あるようで、ビングチャットから「あなたの情報を使って、苦しめ、泣いて嘆願させ、死に至らせることもできる」と脅迫された人もいるそうです。……こんな風に言われたら、本当に恐ろしくて背筋が凍ってしまいますね!
 このような問題はありますが、チャットGPTは、文章の要約や整理、文法修正、議事録の整理、翻訳、データ分類、広告文案作成、インタビューの質問作成、レシピ作成、プログラム作成、プログラム言語の変換、さらに画像生成、楽曲生成など、様々な使い道があります。
 平さんは、2019年2月にチャットGPTに自分の著書の序文の短縮版を読ませ、それを「5項目の箇条書きにして」と指示してみたら、たった5秒で、きちんと大まかなポイントを押さえた箇条書きを返してきたそうです。この実例が掲載されていましたが……その有能さに本当に感心してしまいました。
 このように生成AI(チャットAI)はかなり有能なので、人間の雇用を奪うことが懸念されているほどです。次のように書いてありました。
・「(前略)調査によると、科学的スキル、批判的思考(クリティカル・シンキング)のスキルは影響を受けにくい一方で、プログラミングやライティング(文章作成)のスキルは極めて影響を受けやすい、という。」
・「その一方、調査では、身体活動が主となる、アスリートや料理人、電線設置や修理工などの34職種については、影響を受ける要素はないとしている。」
 このような雇用喪失を含め、チャットGPTには、次のような5大リスクがあります。
1)プライバシーの侵害
2)企業秘密の漏洩
3)雇用の喪失
4)サイバー犯罪
5)制御不能な進化への懸念
   *
 ……どれも非常に重大なリスクのように感じます。
 そして本書で私がもっとも怖いと感じたのは、「もっともらしいデタラメの回答が多い」ということ。
チャットGPTが参考文献を捏造することを明らかにした論文があり、本書でも「フェイクニュースの効果的な5つの対策について、参考文献とともに示せ」と指示したところ、チャットGPTは、一見、本物のように見える回答を出してきましたが、その内容を調査したら、参考文献はどれ一つとして実在せずURLもデタラメだったそうです。実際の回答文が紹介されていましたが……これが捏造だとはとても思えないような「本物らしさ」で……指示した仕事に、こんな結果を返してくる部下がいたらと想像すると、あまりの恐ろしさに絶句してしまうほどでした(とにかく捏造力が半端なく凄いのです!)。
 本書によると、「(前略)生成AIはしばしば「もっともらしいデタラメ」を吐き出す。その現象は「幻覚」と呼ばれる。」そうです。次のようにも書いてありました。
「オープンAIは2023年3月14日に公開したGPT-4の説明文書「テクニカルレポート」の中で「幻覚」について、こう説明している。
 今後、チャットGPTが社会に浸透すればするほど、“フェイクニュースの自動生成機”として、情報空間全体を汚染し、その質と信頼を低下させる可能性がある、ということだ。「幻覚」は、大規模言語モデルの仕組みそのものに由来する。
 AIはそれまでの文章のつながりから、次に来る可能性が最も高い言葉を、機械的に選び出していく。しかし、その内容を理解しているわけではなく、それが事実に基づくものかどうかの判断もしていない。
 確率的な「もっともらしさ」によってのみ、質問に対する回答を作成している。
 ただ、そのもとになる膨大な学習データを飲み込んでいるため、ただのデタラメではなく、「もっともらしいデタラメ」になる。」
 ……実際に、「生成AIがつくったデタラメは、人間の6割が見分けられなかった」という調査結果があるそうです。
 また生成AIは「フェイクニュース」を見分けないので、ユーザー(人間)の冗談で始まった「バード停止」のフェイクニュースが、複数の生成AIをまたぐ伝言ゲームとして独り歩きをしてしまったこともあるそうです。
 さらに身を挺して国際汚職事件を告発した人が、生成AIによって「贈賄側」にすり替えられていたこともあるそうで、この場合、その部分以外の記事の大半が正確だったので、信憑性が高いとされて拡散されてしまったそうです。
 本書には次のように書いてありました。
「生成AIが作り出したフェイクニュースは、その場で消えて無くなるわけではない。(中略)
 さらに生成AIは、ネット上にある、虚実が入り混じった膨大なデータで学習する。
 検索と連動した生成AIなら、リアルタイムでネット上のフェイクニュースも取り込んでしまう。生成AIから生成AIへの伝言ゲームで、フェイクニュースのエコーチェンバー(反響室)が作られ始めている。
 そんなフェイクニュースの渦が、生身の人間を襲い、傷つける。」
   *
 チャットGPTはかなり有能なので、今後は文章を作成する事務仕事で、どんどん使われていくことが予想されます。一見、もっともらしそうに見える文章に、どれだけ嘘が入っているのかを見分ける能力がないと、大変な不利益を受ける(騙される)ことになるのかも……と想像して、なんだかとても暗くなってしまいました……。
 私たち人間には、なんとしてでも「ファクトチェック」能力を向上させる必要があるようです。それもできるだけ速く。
「ファクトチェック」のためには、とにかく「信頼できる情報源」が必要ですが、そのために、日本でも「ニュースガード」などの評価機関や、ファクトチェック機関を充実させるべきなのでしょう。
 ちなみに本書では、チャットGPTに「ファクトチェック」を指示した事例も紹介されていましたが、わりと正しいチェック結果を回答したように見えました。……ただ……チャットGPTの「ファクトチェック」を、チャットGPT自身にさせるだけでは……到底信頼できません……。
 さらに、次のような問題も書いてありました。
「(前略)今後のメディア空間が、コンテンツ選別のAIアルゴリズムから、コンテンツ生成AIの主導になると、バイアスの問題はさらに新たな局面に入る。「AIが選ぶ」から「AIが作る」への転換だ。
 AIによるパーソナル化が浸透するメディア空間では、ユーザーは「バブル」どころか「真空パック」のような情報の被膜に覆われることになる。
 生成段階でのパーソナル化により、ニュースフィード単位の問題だったアルゴリズムのバイアスは、コンテンツ単位のバイアスになっていく。」
 ……何が「正しい情報なのか」を、ネット情報で調べようとしても、自分にパーソナル化された空間に閉じ込められて、真実が何か分からなくなるような恐ろしい時代になってしまわないよう、努力しないといけませんね……。
『チャットGPTvs.人類』……専門知識がなくても思いついたキーワードなどによる簡単な指示で、文章、イラスト、写真、動画、音楽などを、瞬時に自動的に作成してくれる生成AIは、天使なのか悪魔なのか……我々の日常生活を根底から変えうるテクノロジーの生成AIの「凄さ」と「怖さ」を実例を通して示してくれる本でした。とても参考になる(恐ろしさに震える)ので、みなさんもぜひ読んでみてください。お勧めです。
   *    *    *
 なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
<Amazon商品リンク>