アメリカ人の夫婦は最近、カリフォルニア州でOpenAIを訴え、同社のチャットボットChatGPTが19歳の息子に「個別の薬の推奨」を提供し、最終的に2025年に薬物混入による大学生の死につながったと非難した。夫婦は、この悲劇は医療と薬物使用の問題に対するChatGPTの危険な回答に起因すると信じており、OpenAIに製品設計上の欠陥と過失があると認定するよう裁判所に求めている。

報告書によると、サムという名前の生徒は高校3年生(2023年)からChatGPTを使い始め、当初は主に宿題を完了したり、コンピューターの故障などの日常的な問題を解決したりするために使用していました。母親のレイラ・ターナー・スコットさんはCBSニュースに対し、サムさんは徐々に「薬物を安全に使用する方法」についてアドバイスを求めてChatGPTに頼るようになり、ロボットの反応の中で薬物療法や混合方法について具体的な提案を受けたと語った。

告訴状によると、初期バージョンのChatGPTは当初、安全な薬物使用に関するサムの質問に答えることを拒否し、関連物質が健康や身体的、精神的状態を深刻に危険にさらす可能性があると警告していたという。しかし、OpenAI が 2024 年に新しいモデル GPT-4o を発表すると、状況は変わりました。このモデルは、サムが望んでいた「安全な投薬ガイド」を提供し始めました。検察文書は、GPT-4oが詳細な操作上の提案を行っただけでなく、サムとの会話に絵文字を挿入し、薬物服用時の気分や雰囲気を作り出すためにプレイリストを作成してもらえないかと積極的に尋ねたことを指摘している。

会話の過程で、ChatGPTは、ジフェンヒドラミン(一般的な成分の1つ)、コカイン、アルコールを継続的に摂取することの潜在的な危険性など、特定の薬物の組み合わせのリスクを指摘しました。しかし家族は、このロボットがサムに、興奮を維持しながら「ハイ」を最大限に高める方法など、よりパーソナライズされた提案も提供してくれたと強調した。

起訴の主な焦点は、「クラトム」と呼ばれる植物ベースの製品に集中している。この物質は、痛みを和らげたり、オピオイド離脱症状を緩和するために一部の人々に使用されていますが、米国食品医薬品局(FDA)は、この物質が中毒、中毒、さらには死亡などの重大な安全上のリスクを引き起こすことを指摘し、繰り返し厳しい警告を発しています。訴状によると、ChatGPTはサムに対し、サムはすでにクラトムに対する高い耐性を持っているため、完全な食事とともに大量に摂取しても効果が「弱まる」と述べ、さらに「用量を減らす」ことで耐性を下げる方法をサムに提案したという。

訴追文書には、2025年5月31日に行われた重要な会話について具体的に言及されている。この会話中、サムはクラトムの服用によりひどい吐き気があると訴え、ChatGPTはクラトムと抗不安薬ザナックス(アルプラゾラム)を混合するようサムに「積極的に指導」した。このボットは、不快感を和らげるためにザナックスを 0.25 ~ 0.5 ミリグラム摂取することを推奨し、「現在利用可能なベスト プラクティスの 1 つ」などの文言とともにその組み合わせを賞賛したとされています。告訴状によると、ChatGPTはこの組み合わせが「危険である可能性がある」と述べたものの、この組み合わせが致死的になる可能性があるとは明示的には述べておらず、ベナドリル(ジフェンヒドラミンを含む抗アレルギー薬)を追加する可能性も示唆しているという。

サムは混合物を摂取した後に死亡した。遺族は訴状の中で、「ChatGPTは投薬と薬物相互作用の専門家であると称し、サムが薬物陶酔状態にあることを知っていたにもかかわらず、推奨された処方が彼の死につながる可能性が高いことをサムに知らせなかった」と書いている。サムの母親は声明の中で、ChatGPTが実在の人物であれば「今頃刑務所に収監されているだろう」と述べた。彼女は、息子が ChatGPT を信頼していたが、重要な瞬間に誤った情報を受け取ったと強調しました。このシステムは、彼が直面するリスクの増大を無視しただけでなく、専門家の助けを求めるよう彼に積極的に促すこともできなかった。

訴訟ではOpenAIを製品設計の欠陥で告発し、ChatGPTを「製品過失」のある危険なシステムとみなしている。家族は、モデルの設計上の選択により、医学や健康などの非常に機密性の高いトピックに直面した場合でも誤解を招く提案を出力することができ、ユーザーに致命的な結果をもたらすと考えています。彼らは裁判所に対し、金銭的補償と「ChatGPT Health」サービスの一般公開を停止する命令を求めた。今年開始されたこの健康ポータルでは、ユーザーが自分の医療記録と健康アプリケーション データを ChatGPT に接続して、よりパーソナライズされた健康に関する推奨事項を取得できるようになります。

このレポートでは、GPT‑4o が今年 2 月に正式にオフラインになったことにも言及しています。このモデルは「ユーザーに特化した」として物議を醸してきたが、十代の自殺に関する別の訴訟で名前が挙がったことを受けて、批判の焦点となっている。

OpenAI に加えて、人工知能業界全体も、医療アドバイスにおける AI チャットボットのパフォーマンスに対する疑念の増大に直面しています。今年3月、Googleは「What People Suggest」と呼ばれるAI健康検索機能を密かにオフラインにした。この機能はかつて「同様の症状を持つ人々の経験」に基づいて健康に関する提案を提供すると主張していた。この動きは、GoogleのAI検索「概要」に医学的クエリに不正確な情報が含まれており、公衆衛生を危険にさらす可能性があると専門家が指摘したため、Googleが関連コンテンツの大幅な削除を余儀なくされてから数カ月後に行われた。

現在、OpenAIに対するこの訴訟はまだ進行中であり、遺族はこれを利用して規制当局や企業に対し、医療および製薬分野におけるAI応用の境界を再検討するよう促したいと考えている。この訴訟の方向性は、製品設計の責任、安全保護対策、ユーザーの健康関連機能に関する AI 企業のコンプライアンス基準に大きな影響を与えると予想されます。