OpenAI、精度懸念の中でChatGPTを健康判断に推奨
Terrill Dicki 2026/3/5 1:21
OpenAIは、がん治療の意思決定にChatGPTを使用した家族を強調しているが、最近の研究では、AI健康ツールには重大な精度と安全性の問題があることが示されている。
OpenAIは今週、息子のがん治療の意思決定準備にChatGPTを使用した家族を特集したケーススタディを公開し、AIチャットボットを医師の指導を補完するものとして位置付けた。AI健康ツールに重大な信頼性の問題があるという証拠が増えている中、このタイミングは疑問を呼ぶ。
3月4日にリリースされたこのプロモーション記事は、両親が子供の腫瘍学チームと並行してChatGPTを活用した方法を説明している。OpenAIはこれを、医療専門知識を置き換えるのではなく補完する責任あるAI使用として位置付けている。
しかし、楽観的な物語は不快な研究結果と衝突する。Nature Medicineに掲載された研究では、OpenAI自身の「ChatGPT Health」製品を調査し、精度、安全プロトコル、医療推奨における人種的偏見に関する重大な問題を発見した。がん治療に関する生死を分ける決定を下す際に人々が使用するかもしれないツールにとって、これは軽微な注意事項ではない。
精度の問題
独立した研究は、せいぜい複雑な状況を描いている。Mass General Brighamの研究では、ChatGPTは医療専門分野全体で約72%の精度を達成し、最終診断では77%に上昇した。何が危機に瀕しているかを考えるまではまともに聞こえる—パイロットが重大なエラーを犯す確率が23%の飛行機に搭乗するだろうか?
医療AI企業Atroposはさらに厳しい数値を示した:汎用大規模言語モデルは、医師にとって臨床的に関連性のある情報をわずか2%から10%の時間しか提供しない。「時々役立つ」と「がんの決定に十分信頼できる」の間のギャップは依然として広大である。
米国医師会は言葉を濁していない。この組織は、精度の懸念と標準化されたガイドラインの欠如を理由に、臨床意思決定支援のためのLLMベースのツールの医師による使用を推奨していない。AMAが医師に避けるよう指示するとき、患者もおそらく注意すべきである。
ChatGPTができないこと
AIチャットボットは身体検査を実施できない。患者のボディーランゲージを読み取ったり、経験豊富な腫瘍専門医が数十年かけて開発した直感的なフォローアップの質問をしたりすることもできない。彼らは幻覚を起こす可能性がある—完全に捏造された自信に満ちた情報を生成する。
プライバシーの懸念が別の層を追加する。ChatGPTに入力された子供のがんに関するすべての症状、すべての恐怖、すべての詳細は、ユーザーが限定的にしか制御できないデータになる。
OpenAIのケーススタディは、家族が「医師からの専門的指導と並行して」働いたことを強調している。その限定語は重要である。危険なのは、情報に基づいた患者がより良い質問をすることではなく、危機に瀕している脆弱な人々が、マーケティングが示唆するよりも頻繁に間違いを犯すツールに過度に依存する可能性があることである。
OpenAIの企業野心を見守っている暗号資産投資家にとって、医療への進出は高リスク分野への積極的な拡大を示している。2026年に向けて、文書化された精度問題を抱えた医療意思決定ツールを推進するAI企業を規制当局が容認するかどうかは、未解決の問題である。
画像出典: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech

