OpenAIがAGI安全性の新指針を発表。「段階的な進化」と「人間中心」が核に

ニュース
OpenAIがAGI安全性の新指針を発表。「段階的な進化」と「人間中心」が核に

AIの急速な進化とともに高まる安全性への関心。業界をリードするOpenAIが、AI安全性と人間との価値観の整合性(アラインメント)に関する新たな考え方を公表しました。注目すべきは「AGI(汎用人工知能)は突然誕生するものではなく、段階的に進化するもの」という従来からの転換です。

AGI開発は「飛躍」ではなく「積み重ね」へ

OpenAIはこれまで、AGIの登場を「おもちゃのような問題から世界を変える力へと一気に変わる瞬間」と捉えていました。しかし現在は「最初のAGIは、単に徐々に成長していくAIの一つの通過点に過ぎない」という見方に変わっています。

この視点変化は安全性への取り組み方にも大きく影響しています。以前の「飛躍型」の考え方では、AGIの到来に備えることが最優先され、実際の能力以上に警戒する姿勢が必要でした。これがGPT-2を初期に非公開とした理由でもあります。

5つの基本方針で安全なAI開発を目指す

OpenAIが示した安全性とアラインメントの5つの基本方針は以下の通りです:

  1. 不確実性の受け入れ:安全性を科学として捉え、理論だけでなく実際の利用から学ぶ
  2. 重層的な防御策:複数の安全対策を組み合わせて守りを固める
  3. 拡張性のある安全技術:AIの能力向上に合わせて効果が高まる安全手法の開発
  4. 人間による制御:人類の可能性を広げ、民主的な価値観を促進するAIの追求
  5. 共同責任の認識:安全なAI開発は業界全体の協力が必要という考え

特に「不確実性の受け入れ」では、厳密な測定、先手を打ったリスク対策、段階的な公開を通じて安全性を科学的に追求する姿勢が示されています。

※「alignment」の意味

「alignment」とは、物事が整列・整頓されている状態や、人や組織が共通の目的や利益のために協力・連携することを指す。具体的には、物理的な配置や位置関係の整列、あるいは政治的・社会的な同盟や連携などが該当する。

人間を中心に据えたアラインメント

OpenAIのアプローチは人間を中心に据えています。AIの行動や許容範囲は社会全体で決めるべきであり、人間の価値観や状況に応じて進化すべきだと主張しています。

具体的な取り組みとしては:

  • 明確なルールや「判例法」をAIの学習プロセスに組み込む
  • 人間の価値観、倫理、常識をモデルに取り入れる
  • AIの能力向上に合わせて進化する監視の仕組みの構築

安全性は世界全体の責任

OpenAIは、AGIの安全性と有用性の確保は一企業だけでは達成できないと強調します。産業界、研究機関、政府、一般市民を含めた幅広い協力が不可欠だと考えています。

この考えに基づき、OpenAIは安全性に関する知見や技術を公開し、政府のAI安全性専門知識の向上を支援し、AIの恩恵を最大化するための政策提案を行っています。

今後について

AI安全性とアラインメントへの取り組みは、技術の進歩とともに進化し続けるでしょう。OpenAIの今回の発表は、自社の立場を明確にするだけでなく、業界全体に対して安全で有益なAI開発の道筋を示す重要なステップと言えます。

AIの能力が高まるにつれて、その影響力とリスクも増大します。OpenAIは「異なる視点や考え方を持つ人々からの意見」を積極的に受け入れる姿勢を示しており、AGI開発の未来が多様な意見によって形作られることを期待されます。

【出典】