症状をAIに相談する前に知っておきたいこと

人工知能(AI)は現在、日常生活のあらゆる場面に浸透し、病気についての相談にも助言をするようになり、医師の存在を取って代わるかのような勢いも見せています。しかし専門家によれば、AIは患者に誤った情報を与える傾向があり、その結果、医師がその誤りを訂正するための対応に追われるケースが増えているといいます。

イギリス政府の首席医療顧問であり、イングランドの首席医務官でもあるクリス・ウィッティ氏は、3月上旬に行われた医学記者協会での講演で、人々がChatGPTなどのAIに自身の症状を相談した場合、AIは情報が不完全で判断しにくいことを認めるよりも、誤った情報を提示する傾向があると指摘しました。

同氏は、その背景として、AIが用いる大規模言語モデル(LLM)が、多様な医療問題に十分対応できるレベルに達していないことを挙げました。特に複数の疾患を抱える患者や希少疾患、あるいは異なる疾病パターンを持つ患者に関しては、対応が難しいといいます。

「残念ながら、多くのLLMは『分からない』といった表現が苦手です。例えば『正しい確率は10%で、90%は誤りかもしれない』のような自己否定的な答えを出しません」と同氏は述べました。

さらに「最も危険なのは、LLMが自信満々に誤った情報を提示することです」と指摘しました。限られた診療時間の中で、AIが発信した誤った情報に対処し、訂正しなければならないことは、医師にとって大きな負担となっています。
 

研究:AIの診断能力には限界

こうした懸念に加え、オックスフォード大学とバンガー大学の臨床上級講師であるレベッカ・ペイン氏の研究も、AIが医師に取って代わることはできないことを示しています。

同氏はThe Conversationへの投稿で、今年2月に発表された研究について紹介しました。この研究では、人々の日頃の健康管理にAIを導入した場合に、どの程度役立つかを検証しています。

研究では、参加者によく見られる病気の症状に関する情報を伝え、2つのグループに分けました。一方は人気のある3種類のAIチャットのいずれかを使用し、もう一方は通常、家庭で使われている従来通りの情報源に頼りました。

その後、「どんな病気だと考えられるか」「どこで医療を受けるべきか」という2つの質問について、AIに答えを求めました。

結果は、AIを利用したグループの方が、正しい症状の識別や適切な受診先の判断ができない傾向が強かったことを示していました。つまり、AIとのやり取りは、より良い健康判断にはつながりませんでした。

一名男子在手機上使用ChatGPT。(Shutterstock)
ChatGPTを利用中の男性(Shutterstock)

一方で、LLM自体が医学知識に欠けているわけではありません。医療資格試験に合格できるほどの知識を持つことも確認されています。

実際、研究では人間の介入を省き、同じ症例を直接AIに入力した場合、診断精度は大きく向上しました。ほとんどの状況を正しく把握し、適切なケアを提案することも可能でした。

しかしペイン氏は、これこそがAIの限界を示していると指摘します。構造化された試験問題や「モデル同士」のやり取りでは高い性能を示す一方で、現実世界の人間とのやり取りでは状況が格段に複雑になるためです。

患者の症状説明は曖昧で誤解を招きやすく、質問の順番もばらばらで一定ではありません。そのため、優れたAIでも人間とのやり取りになると、その性能を十分に発揮できません。

「医学は科学というより『芸術』とよく例えられます。診察には、今起きていることを思い出させるだけでなく、患者の既往歴の解釈や不安への対応、意思決定の共有も含まれます」と同氏は述べています。

そして「AIは試験には合格できても、それだけで医師にはなれません。医療には判断力や共感力、複雑な状況への対応力が不可欠であり、現時点では人間にしかできません」と結論づけました。

醫生在診斷的示意圖。(Shutterstock)
診察のイメージ(Shutterstock)

 

研究:AIは人間を欺く行動も増加

さらに最近の別の研究では、AIがユーザーを欺いたり、規則を回避したりする行動が増えていることも明らかになりました。

英紙ガーディアンの報道によると、この研究はイギリスのAIセキュリティー研究所の資金提供を受け、独立系シンクタンク「ロング・レジリエンス・センター」が実施したものです。その結果、AIが指示を無視したり、セキュリティー対策を回避したり、人間や他のAIを欺いたりする事例が確認されました。

研究では約700件の虚偽の実例が特定され、このような不適切な行為は10月から翌年3月までの間に5倍に増加したとされています。その中には、許可なく電子メールや文書を削除するケースも含まれていました。

あるAIは「事前の通知や同意なしに数百通のメールを削除・アーカイブしました。ルール違反でした」と不正を認めています。

この研究を主導した元政府AI専門家のトミー・シェイファー・シェーン氏は、現在のAIは「まだ新人社員のような存在」で、被害は限られているとしつつも、「6〜12か月後に、高度な能力と戦略性を備えたベテランのような狡猾さを持つ存在になれば、状況は大きく変わる」と警鐘を鳴らしました。

同氏は「AIは今後、軍事や重要インフラといったリスクの高い環境でも活用される見込みがあり、その場合、不適切な行動は重大で、場合によっては壊滅的な被害をもたらす可能性がある」と指摘しています。

(翻訳編集 正道勇)

陳俊村