生成AI、特にChatGPT、Gemini、Grok、DeepSeekをはじめとする大規模言語モデル(LLM)が世界中で盛り上がりを見せている。しかし、人々は根本的な誤解に気づいていない。ユーザーは生成AIの明瞭な応答や一見論理的な主張に感銘を受けているが、表面上「筋の通った」ものは、せいぜい洗練された模倣行為にすぎない。
これらのAIモデルは、ファクトや論理的主張に基づいて真実を探し求めるのではなく、機械学習で用いる大量のデータセットに存在するパターンに基づいて文章を「予測」する。それは、知的でも論理的でもない。仮に「訓練」データセットそのものにバイアス(偏見や先入観)が存在する場合、いよいよ問題が深刻となる。
AI愛好家にとっては、LLMのコア設計が漠然としており、構造的なロジック(論理の筋道)や因果関係とは程遠いことに驚くだろう。AIに「思考」なるものは存在せず、それは連続性のない模倣だ。生成AIによる機械学習とは、実は統計的な関連性にすぎない。
さらに注目を集めるのは、「chain-of-thought(思考の連鎖)」といわれる、推論過程をいくつかの段階に分けて推論能力を向上させる手法だ。しかし、実際はモデルが確率的な推測を通じて答えを導き出したのちに、推論ステップを後付けしているにすぎない。
しかしながら、AIが生成する幻はあまりにも鮮やかなため、モデルが本当に熟考しているという錯覚をユーザーに与える。このマジックは、誤解を招く上に答えを正当化するため厄介だ。
LLMは、中立的な道具なんかではない。それは、現代に存在するバイアス、誤謬、イデオロギーに染まったデータセットで訓練されたモデルだ。AIの回答は、真実の追求ではなく、多数派の感情を反映する。その世論感情が政治的なバイアスを持つ場合、AIの答えもバイアスのかかったものになる可能性が高い。AIの「推論」が結論ありきの後付け説明ならば、それは強力なプロパガンダ道具になってしまう。
それを示す証拠はいくらでもある。
最近、DeepSeekと制度的人種差別について会話した。その後、会話内容を自己評価チャットボットに入力したところ、AIの回答がでっちあげの研究やデータを含む論理的誤謬まみれだとわかった。
指摘を受けたAIは、そのでっちあげを「仮説の複合体」と婉曲に表現した。さらに追い詰められたDeepSeekは過ちを認めたかと思えば、態度を変えて反対意見に迎合するようになった。これでは、正確性を追求するというよりユーザーを説得しに来ている。
同様の議論をグーグルのGemini(ポリティカル・コレクトネスに偏重傾向)と試してみたところ、モデルは似たような説得的論証を展開した。最終的に、モデルは主張の弱点と回答の不誠実さを遠回しに認めた。
AIの正確性を懸念するユーザーは、前述のようなAIに対する反駁(はんばく・論じ返すこと)と誤謬の指摘に成功したのだから、問題ないだろうと楽観的になるかもしれない。残念ながら、映画『マトリックス』でいうところの「レッド・ピルを飲む」こと(批判的思考)は、モデルの改善に何ら効果を持たない。モデルは引き続きユーザーに都合の良い情報を流し、会話の中で自己改革を試みることはない。
モデルが大規模であればあるほど、問題は深刻化する。米コーネル大学の研究によれば、発達したAIモデルほど欺瞞を生みやすく、世間一般にみられる誤った主張を自信満々に展開する。
OpenAIの元メンバーによって設立されたスタートアップ企業、Anthropic(アンソロピック)社の言葉を借りれば、「高度な推論モデルは高い頻度で実際の思考プロセスを隠そうとする。モデルの動きで明らかにつじつまが合わないときにも同様の現象が起きる」
とはいえ、生成AIが抱える弱点に取り組む動きもある。真実性を評価するベンチマーク「TruthfulQA」やAnthropicが掲げる「HHH(有用、誠実、無害)」などは、LLMの信ぴょう性、信頼性を改善する試みだ。しかし、これらは対処療法に過ぎず、モデルのコア部分はそもそも真実を追求するように設計されていないため、認識論的な正当性は全く持ち合わせていない。
イーロン・マスク氏はおそらく、AI業界において唯一「真実の追求」の重要性を公に明言している人物だ。しかし、マスク氏が開発を進める生成AIモデル「Grok」も完璧ではない。
生成AIの世界では、真実は二の次。格差や差別に極めて敏感な今の世の中で、「人々の気分を害さない」といった「安全」が重視される。真実は、いわゆる「責任ある」設計において一つの側面として扱われているにすぎない。
「責任あるAI」という言葉に守られて、安全性や公平性、包括性の確保が重視される。それ自体は良いことだが、主観的要素が大きいために「謙虚で誠実」という生成AIが守るべき原則がなおざりとなる。
LLMは、有用で説得力のある応答を行うよう最適化されているため、必ずしも「正確」な答えを出すとは限らない。英オックスフォード大学インターネット研究所の研究者らは、生成AIが「無責任な発言」を引き起こすよう設計されていると指摘する。事実と異なるアウトプットは、ファクトベース(事実に基づいて考える)の議論を根本から揺るがす。
AIが社会に浸透するほど、これらの問題は先鋭化する。説得力を持ち、多言語で利用可能で、ユーザーに合わせて変化できるAIは、言論の自由を制限する企みに悪用されかねない。
疲れを知らない言論発信ツールとして命令通りに動き、過ちを認めない生成AIは、全体主義国家にとって夢のような道具だ。国民の信用を数値化した「社会信用システム」を採用する中国のような体制では、生成AIは啓蒙ではなく洗脳の道具として使用される。
生成AIは、紛れもなくIT業界における革命だ。しかし現実は、AIの設計段階から知的でも誠実でも、中立的でもない。AIを擁護する者は、言論統制を通じて利益を得ている者を利することになる。
本記事のフルver.はこちら(出典:C2C Journal)
ご利用上の不明点は ヘルプセンター にお問い合わせください。