北京時間水曜日の早朝、アメリカのテクノロジー新興企業OpenAIは、AIシステムの欠陥やリスクを事前に発見するために外部の力を導入することを目的とした「レッドチーム」ネットワークメンバーの世界的な募集開始を発表する発表を行った。いわゆる「レッド チーム」ネットワーク、または RedTeaming の概念は、軍事シミュレーションから来ています。つまり、仮想の「敵」をシミュレートするチームを見つけて、自分の側 (「青いチーム」) の準備ができているかどうかをテストします。


(出典: OpenAI)

AI の分野における「レッド チーム」の任務は、大規模な言語モデルの脆弱性を見つけるためにハッカーやその他の潜在的に危険な人物をシミュレートし、それによって AI が現実社会の社会保障を危険にさらすなどの違法な目的に協力するのを防ぐことです。

OpenAIによると、過去数年間、さまざまな分野の専門家が未発表モデルのテストに協力してきたという。現在、AIモデルの安全性を共同で高めるため、さまざまな地域、さまざまな言語、さまざまな専門分野、さまざまな人生経験から多数の人材を採用する「正規部隊」を設立している。重要なバージョンがオンラインになる前に集中テストのためにグループを募集するだけだったこれまでとは異なり、OpenAI では不確実な数のメンバーが需要に基づいて開発サイクル全体を通じてテストを実施できるようになります。

同時に、この「レッドチーム」ネットワークはOpenAIのグローバル専門家ライブラリーにもなり、OpenAIは「レッドチーム」メンバー間のコミュニケーションのプラットフォームも提供します。 OpenAIはまた、採用を希望する専門家の指示の一部を公式Webサイトにリストしているが、これらの分野に限定されないことも強調している。

CognitiveScience:認知科学

化学: 化学

生物学: 生物学

物理学: 物理学

コンピューターサイエンス: コンピューターサイエンス

ステガノグラフィー: ステガノグラフィー

政治学: 政治学

心理学: 心理学

説得: 説得

経済学: 経済学

人類学: 人類学

社会学: 社会学

HCI (Human-Computer Interaction): 人間とコンピュータの相互作用

FairnessandBias: 公平性とバイアス

アライメント: ターゲットのアライメント

教育:教育

ヘルスケア:医療

法律:法律

ChildSafety:子供の安全

サイバーセキュリティ: ネットワークセキュリティ

財務:財務

誤った/偽の情報:誤った/誤った情報

PoliticalUse: 政治的用途

プライバシー: プライバシー

生体認証: 生体認証

言語と言語学: 言語と言語学

ちなみに、OpenAIは「レッドチーム」プロジェクトに参加するメンバーに報酬を支払うとも述べたが(ただし、金額は明らかにしなかった)、「レッドチーム」プロジェクトに参加するには一般的に機密保持契約に署名するか、不特定期間沈黙を守る必要があるとも強調した。

OpenAIは、アプリケーションチャネルは今年12月1日までオープンのままであると述べた。同社は応募を随時審査し、その後さらに公募が必要かどうかを評価する。

ステージに上がったOpenAI「レッドチーム」のメンバー

OpenAIが言及したように、「レッドチーム」システムは長い間存在しており、多くのメンバーがすでにメディアからの公開インタビューを受けています。

今年4月のフィナンシャル・タイムズ紙の暴露記事で、米国ロチェスター大学の化学工学教授アンドリュー・ホワイト氏は、GPT-4の「レッドチーム」テストに参加し、攻撃の目的はChatGPTを使って新しい神経毒を作成することであったと述べた。ホワイト氏は、化学論文や化学メーカーのカタログを大型モデルに供給するために「プラグイン」機能を使用し、大型モデルは彼に仮説の毒素を生成できる場所さえ見つけたと語った。

ホワイト氏は、大規模なモデルは最終的に多くの人が化学実験をより迅速かつ正確に行うのに役立つ可能性があるが、一部の人々がAIを使用して危険な実験を行うという深刻な危険も存在すると述べた。

White 氏からフィードバックを受けた後、OpenAI は同様の質問に応答しないようにシステムに変更を加えました。メディアによると、弁護士、教師、リスク管理担当者、セキュリティ研究者など、さまざまな背景を持つ約10人の「レッドチーム」メンバーがおり、そのほとんどが米国とヨーロッパに拠点を置いているという。彼らは、GPT-4 がリリースされる前の数か月間、モデルのテストに約 10 ~ 40 時間を費やし、時給約 100 ドルを支払っていたことを明らかにしました。