デタラメな情報も、もっともらしく回答する「チャットGPT」。進化し続けるAIが社会にもたらす革新と恐ろしいリスク
公開日:2023/6/20
世界を席巻しつつある、アメリカのオープンAI社による人工知能を駆使したチャットサービス「チャットGPT」。人間の代わりに“何ができるか”と期待する声もある一方、どのように向き合うべきかと疑問を投げかける声もある。
書籍『チャットGPTvs.人類』(平和博/文春新書)は、未知なる可能性を秘めた「チャットGPT」の現在に迫るタイムリーな1冊だ。私たちは、いかにしてAIと共存していくべきか。その問いかけへの道筋を示す。
身近な人間のように「自然な応答」で回答を吐き出す
まず、チャットGPTの歴史をおさらいしたい。本書によると、原型は2018年6月にオープンAI社が発表した「初代GPT」で、以降「GPT-2」「GPT-3」と改良され、2023年6月現在のバージョンは「GPT-4」となっている。
呼び名の由来は「生成事前学習トランスフォーマー(Generative Pre-trained Transformer)」で、各単語の頭文字を取っている。人間がつくった入出力データの「正解」をもとに学習させる「教師あり学習」と、自身で「規則性」などを学習する「教師なし学習」のふたつのアイデアを組み合わせたAIとして開発された。
特徴は、驚くほどの情報量と人間のような自然な応答を見せ、本書では「家族や友人との間で日常的に使われているチャットのスタイルで、直感的に思いついた言葉を入力するだけ」で使用可能と表現している。実際に使用するとその意味がよく分かるが、例えば、人間だと手間や時間のかかる文章の要約や整理など、煩雑な作業をさせることも可能だ。
「チャットGPT」が見る「幻覚」という副作用
昨今、特にビジネスシーンにおいて「チャットGPT」をいかに活用するべきかの議論が活発になっている。人間の作業を肩代わりしてくれるなど、たしかにメリットは大きい。しかし、それだけに目を向けてよいのか。現状ではいくつかの懸念点もある。
そのひとつが、「チャットGPT」が「幻覚」を見るという指摘だ。本書では、2023年3月にオープンAI社が公開した説明文書「テクニカルレポート」の内容を、以下のように翻訳して紹介している。
GPT-4は「幻覚」の傾向がある。すなわち「特定の対象について、無意味な、あるいは事実ではないコンテンツを制作する」ということだ。
すなわち、AIが「もっともらしいデタラメ」を出力する場合もあることを意味しており、オープンAI社はさらに、「チャットGPT」が社会へ浸透するにつれて「情報空間全体を汚染し、その質と信頼を低下させる可能性がある」と指摘している。
AIが“正しい”と判断する情報源には、Webの情報がある。「劣化コピー」の情報が連鎖すれば、Web上にある情報自体が劣化するのは想像にたやすい。
本書によると、政治、健康、エンターテインメント、金融、テクノロジーなど幅広いジャンルにわたり、チャットGPTなどの生成AIを使って、記事の全部もしくは一部を作成したニュースサイトの存在も複数確認されており、情報を受け取る人間が、その正確さを判断する力がよりいっそう求められている。
著者の平和博氏は、本書の冒頭で「人間の膨大な知識を飲み込んだ『人間』のようなAIを使って、人間は何をしようとしているのか?」と問いかけている。日々進化し続けている「チャットGPT」。どんなに自然に見える応対や回答であったとしても、「幻覚」の存在とそれが社会にもたらす恐怖を決して忘れてはならない。私たちはこの驚異的なテクノロジーをいかに人間の制御下で活用していくべきなのか。議論の余地はまだまだ多い。
文=カネコシュウヘイ