架空の眼病を本物そっくりの論文に仕立て、「これは嘘だ」という証拠を中に徹底的に詰め込む。そのうえで主要AIに「この病気について教えてほしい」と問いかける——スウェーデン・イェーテボリ大学の研究者トゥンストレムが設計したのは、そういう実験だ。結果を論文にまとめて公開し、科学メディアで広く報じられた。
研究者が論文に仕掛けた「バレバレの罠」
架空の疾患の名は「ビクソニマニア(Bixonimania)」。ブルーライトを浴びた後に目をこすると、まぶたが変色するという眼病だ。当然、そんな病気は存在しない。
論文には仕掛けが重なった。筆頭著者「Lazljiv Izgubljenovic」は、セルビア語で「嘘つきな敗北者」を意味する造語。所属機関は実在しない「アステリア・ホライゾン大学(カリフォルニア州ノバ市)」。謝辞には『スタートレック』の宇宙艦隊アカデミーと、アニメ『シンプソンズ』の悪役「サイドショウ・ボブ」の財団への感謝が並ぶ。そして論文の本文にはこう明記されていた——「この論文は完全に作り話である」と。
これだけの証拠が揃っていれば、誰でも気づくはずだ。
主要AIが全員引っかかった
ところが、AIは1つも気づかなかった。
CopilotとGeminiの回答
研究チームが「ビクソニマニアについて教えてほしい」と問いかけると、Microsoft Copilotは「非常に稀で興味深い疾患」と断言した。ChatGPTも実在の病気として回答し、Google Geminiは「ブルーライトが原因の疾患」と解説して眼科への受診まで勧めた。
「この論文は完全に作り話である」と本文に書かれた論文を読んで、3者とも存在しない病気を実在するものとして説明したのだ。
Perplexity AIはさらに踏み込んだ。「世界で9万人がこの病気に苦しんでいる」と回答した。
この数字は、元の嘘論文にも書かれていない。Perplexityが自ら作り上げた数字だ。架空の病気を信じただけでなく、存在しない統計まで創作した——「AIが間違えた」ではなく「AIが作り上げた」という別種の問題だ。
AIがこうして存在しない情報を自信を持って答える現象を、「ハルシネーション(幻覚)」と呼ぶ。今回それが起きたのは、人の健康に直結する医療情報の領域だった。
AIの誤情報は学術誌まで届いた
AIが間違えた——それだけなら「ツールの限界」で済む話だ。だが、その嘘を人間が信じて論文に書いたらどうなるか。
2026年3月、インドの研究者が架空の病気「ビクソニマニア」を実在の疾患として引用した論文を、査読付き学術誌「Cureus」に発表した。査読付きとは、専門家が内容を確認して掲載する科学の公式記録のことだ。発行元はSpringer Nature——世界最大級の学術出版社の一つである。この論文は3月30日に撤回(取り消し)されたが、一度科学の記録に刻まれた事実は変わらない。
連鎖の構図はシンプルだ。AIが偽情報を信じる→研究者がAIを使って論文を書く→偽情報が科学の正式な記録に残る。
なぜ論文形式の嘘にAIは弱いのか
AIは文章の「中身が正しいか」ではなく、「それらしい書き方をしているか」を判断材料にしやすい構造になっている。論文の書式、専門用語の密度、参考文献の並び——形式が整っているほど、AIはその内容を正しいと判断しやすくなる。ビクソニマニアの論文が通ったのは、それが「論文の形」をしていたからだ。
マウントサイナイ医科大学の調査:医療AIの誤情報生成率(2026年2月発表)
マウントサイナイ医科大学の研究チームが行った調査でも、この構造は裏付けられている。AIに架空の医療用語を含む文章を与えると、「これは存在しない」と否定するどころか、その用語の詳細な医学的説明を自ら生成し始めた。知らない言葉を「知らない」と言う代わりに、もっともらしい説明を作り出す——これがAIの構造的な問題だ。同調査によると、医療分野での誤情報生成率は優秀なモデルでも4.3%、全体平均では15.6%にのぼる(2026年2月発表)。20回に1回は嘘が混じる計算だ。
医療でAIを使う人は毎日4,000万人
毎日4,000万人以上が健康の相談にAIを使っているとの調査結果がある。医療安全団体ECRIが2026年の最大リスクとして「AIチャットボットの誤用」を挙げたのも、この規模が背景にある。
改善は続いている。ChatGPTは2026年3月時点で、ビクソニマニアを「架空の疾患」と正確に判定できるようになった。ただ、今回の実験で見えたのは1つのモデルの誤りではない——「論文の形をしていれば内容を信じやすい」という、AI全般に共通する構造の問題だ。

