米国でOpenAIを相手取った連邦訴訟で、イーロン・マスク氏は証言の中で、自身が設立した人工知能企業xAIが、いわゆる「蒸留」技術を通じて自社のチャットボットGrokを訓練するためにOpenAIのモデルを使用していたことを認め、業界におけるこの暗黙の慣行が再び注目を集めた。

最近、OpenAI と Anthropic は、公的にアクセス可能なチャットボットと API に対する集中的な調査 (業界では「蒸留」として知られるプロセス) を通じて、新しいモデルの動作をトレーニングするサードパーティを攻撃しています。ここ数カ月、世論の焦点は一部の中国企業に集中している。彼らは、蒸留を通じてオープンソースの重み付けモデルを作成したとして非難されています。これらのモデルは、米国の最先端製品に近い性能を持ちながら、より安価に対外提供が可能です。しかし、技術界では、多くの専門家が長年、米国の最先端の研究室も同様の手法を使って競争に遅れをとらないだろうと信じてきた。

この推測は現在、少なくとも 1 つのケースで確認されています。カリフォルニア州の連邦裁判所での木曜日の証言で、xAIがOpenAIモデルに基づいてGrokを訓練するために蒸留技術を使用したかどうか尋ねられたマスク氏は、それは「AI企業の間で一般的な慣行」であると述べた。相手がこれは「はい」と理解してよいかと尋ねると、「一部はい」との答えが返ってきた。

マスク氏は現在、OpenAIと同社CEOのサム・アルトマン氏、共同創設者のグレッグ・ブロックマン氏を相手に、OpenAIを非営利組織から営利組織に転換することで当初の非営利使命に違反したとして訴訟を起こしている。裁判は今週始まり、マスク氏の証言が中心的なドラマの一つとなる。

蒸留技術は大手 AI 企業の中核的利点に対する脅威とみなされているため、マスク氏の認めは重要である。これらの企業は、規模の壁を乗り越えて優位を保とうとコンピューティング インフラストラクチャの構築に巨額の資金を投資している一方、他のソフトウェア開発者は蒸留によって、元のコストよりもはるかに低いコストで機能が「それほど遠くない」モデルをトレーニングできるようになる可能性がある。このような背景に対して、業界では皮肉にも事欠きません。十分なトレーニング データを取得するために、フロンティア ラボ自体が著作権の境界線を繰り返しテストし、「一線を踏み越えている」とさえ非難されてきました。しかし今では、他社がコンプライアンス インターフェイスを使用してモデルを「学習」することに抵抗しなければなりません。

年表から判断すると、xAIはOpenAIよりも数年遅れて2023年に設立されており、当時の業界リーダーから「学ぼう」と努めたのも不思議ではありません。蒸留が明確な法律違反となるかどうかは不明である。より現実的な制約は、製品の使用に関して各企業が設定したサービス規約から来る可能性があります。蒸留はこれらの規約への違反とみなされ、必ずしも法定法自体に触れるわけではありません。

中国からのモデルの「盗用」に関する懸念に直面して、OpenAI、Anthropic、Google は、インテリジェンスを共有し、蒸留の試みに共同で対応するために、「Frontier Model Forum」を通じて共同行動を開始しました。報告書によると、こうした大規模モデルの抽出は、モデルの「内部行動パターン」を推測するために体系的かつ大規模な自動質問に依存することがよくあります。このような動作を抑制するために、Frontier Labs は、モデルの「本質の枯渇」を防ぐために、疑わしいバッチおよび異常なリクエストを特定してブロックしようとしています。本稿執筆時点で、OpenAIはマスク氏の証言に関するコメント要請に応じていない。

公判後半でマスク氏は、xAIが間もなく機能の点でGoogleを除くすべての企業を超えるだろうという、昨年夏に発言した注目を集める発言について質問された。同氏は法廷で世界の主要なAIプロバイダーの主観的なランキングを実施し、現在はAnthropicが1位、次にOpenAIとGoogleがランクインしているが、中国のオープンソースモデルは2位にランクされていると述べた。それに比べて、xAI ははるかに小規模な会社であり、現在従業員数はわずか数百人であると彼は説明しました。