米AI大手のアンソロピックは2月23日、同社の大規模言語モデル(LLM)「Claude」から高度な能力を不正に吸い出す「産業規模」の蒸留攻撃を確認したと発表した。今回の事案では、中国系AI企業が組織的にモデル能力を抽出していたとされ、中国製AIの背後に潜むリスクが改めて浮き彫りになった。
発表によると、攻撃に関与したとみられるのは中国系AIラボのDeepSeek、Moonshot AI、MiniMaxの3社である。これらの企業は、アンソロピックが中国国内で商用提供していないにもかかわらず、海外の中継サーバーを経由してサービスにアクセスし、再販型の接続を通じて利用を拡大していたとされる。
調査では約2万4千の不正アカウントを使って1600万回以上の対話が行われていたことが判明した。これは、通常のユーザーがAIを利用する規模を大きく超えるもので、AIの能力を体系的に吸い出す目的で運用されていたとみられる。
対話の内容を見ると、AIの中でも特に重要とされる推論能力やプログラミング能力、複数の作業を自動的に進める「エージェント型推論」などを引き出す質問が多く、AIの頭脳部分を解析するような形で能力の抽出が進められていた。
内訳では、DeepSeekが約15万件の対話を通じて推論能力や思考過程を引き出すプロンプトを使用した。Moonshot AIは約340万件の対話を実施し、エージェント型推論やプログラミング機能を標的とした。MiniMaxは約1300万件以上と最多の対話を行い、アンソロピックの新モデル公開から24時間以内にアクセスを集中させるなど、組織的かつ迅速な動きを見せたという。
アンソロピックが特に警戒しているのは、こうした蒸留によって作られたAIから安全装置が取り外される可能性である。もともとのAIには、サイバー攻撃や生物兵器など危険な情報に関する回答を制限する安全対策が組み込まれている。しかし蒸留によって能力だけが抜き取られると、こうした安全制御が弱まったり失われたりする恐れがある。
その結果、AIの高度な能力が軍事用途や監視技術などに転用される危険性も指摘されている。
背景には、中国共産党が進めるAI政策との関係もある。英国のシンクタンクCETaSの報告書によると、中国ではAI開発において「社会主義の核心的価値観」を反映させることが義務付けられており、国家権力の正統性を揺るがす情報は厳しく制限される仕組みになっている。エポックタイムズの報道では、実際、DeepSeekのモデルでは天安門事件などの質問を拒否する一方、台湾問題については中国政府の公式見解に沿った回答を示す例が報告されている。
またVisionTimesによると、ユーザーデータが中国国内のサーバーに保存され、国有通信企業であるChina Mobileへ送信される可能性も、サイバーセキュリティ企業の調査で指摘されている。これが事実であれば、AIの利用を通じて集められた情報が、政治的影響力の行使や監視に利用されるリスクも否定できない。
一連の事態を俯瞰すると、西側のAIから高度な推論能力やプログラミング能力を吸い出して安全対策を外した上で、そこに中国共産党独自の検閲や情報統制の仕組みが組み込まれるという、新たな脅威の構造が浮かび上がってくる
米国は現在、AI開発に不可欠な高性能GPUの対中輸出規制を実施しており、AI分野を巡る技術覇権争いは激しさを増している。アンソロピックは今回の事案について、単一企業だけでは対応が難しい問題だとして、業界全体での監視と対策が必要だと訴えている。
産業規模の蒸留攻撃は、単なる企業間の技術盗用にとどまらない。AIを通じた情報統制や認知戦の新たな手段として利用される可能性があり、中国製AIの影響力が拡大する中、国家安全保障の観点からも警戒が強まっている。

ご利用上の不明点は ヘルプセンター にお問い合わせください。