英国政府は、OpenAI、Anthropic、Google などの企業に対し、大規模言語モデル (LLM) の内部動作を説明するよう求めています。一部のモデルのコードは公開されていますが、GPT-3.5 や GPT-4 などのモデルは公開されておらず、OpenAI は多くの詳細を共有することに非常に消極的です。
英国は、政府、企業、研究者が一堂に会し、人工知能によってもたらされるリスクを検証し、そのリスクを軽減する方法を議論する新たな世界的な人工知能サミットの開催を準備している。
企業が内部データの共有に消極的な理由の 1 つは、そのような行為によって自社製品に関する機密情報が漏洩する可能性があるためです。悪意のある攻撃者がより多くの内部情報を知っている場合、人工知能モデルがサイバー攻撃に対して脆弱になる可能性もあります。
フィナンシャル・タイムズ紙によると、政府が確認したいことの1つはモデルの重み付けで、これはモデルの異なる層にあるニューロン間の接続の強さを定義するものだという。現在、AI 企業はこれらの詳細を共有する必要はありませんが、これに関して透明性を高めることが求められています。
英国は11月にブレッチリー・パークで初の首脳会議を開催する。ブレッチリー パークは、ナチスのメッセージがここで解読されたため、コンピューティングの歴史において重要な位置を占めています。人工知能に関連するチューリング テストは、同じく暗号を解読したアラン チューリングにちなんで名付けられました。
フィナンシャル・タイムズ紙は、GoogleのDeepMind、OpenAI、Anthropicの各社が6月に研究とセキュリティ目的で自社のモデルを英国政府に公開することで合意したと指摘した。残念ながら、当時両当事者は開口部の範囲と技術的な詳細について合意に至らなかった。現在、政府が要求する公開性のレベルは非常に高いものになっています。
最終的に、サミットを成功させるには、参加者がモデルがどのように機能するかを完全に理解し、その危険性をよりよく理解する必要があります。彼らがモデルに適切にアクセスできるかどうかは別の問題です。