※本記事は、OpenAIが2026年4月に公開したレポート「Industrial Policy for the Intelligence Age: Ideas to Keep People First」の内容を基に作成されています。レポートの詳細情報は https://openai.com/global-affairs/industrial-policy-for-the-intelligence-age でご覧いただけます。本記事では、レポートの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのレポートをお読みいただくことをお勧めいたします。また、OpenAI(@OpenAI)のソーシャルメディアアカウントもご参照ください。
はじめに:Let's Talk(対話の開始)
AIの進歩と超知性への移行、および本文書の目的
理解への探求心は、常に人類の進歩を動かしてきた原動力です。科学が技術を生み、技術が発見を促し、発見がさらなる科学へとつながるフライホイールのような循環のなかで、人類は砂を溶かし、不純物を加え、原子レベルの精度で構造化してコンピューターチップを作り上げ、そのチップにエネルギーを流すことで、ますます強力な人工知能を生み出すシステムを構築してきました。この止まることのない前進の歩みこそが、今日のAI時代の礎となっています。
ここ数年で、AIは急速な狭い領域のタスクをこなすだけのシステムから、かつては人間が何時間もかけて行っていた汎用的なタスクをこなせるモデルへと進化しました。そして今、超知性(superintelligence)、すなわちAIの支援を受けた場合でも最も優秀な人間を凌駕できるAIシステムへの移行が始まりつつあります。この移行がどのように展開するかを正確に予測できる者は誰もいません。しかしOpenAIとしては、人々がAIの未来を形作る真の力を持つ民主的なプロセスを通じてこの移行を進め、さまざまな結果に備えながら、適応する能力を構築していくべきだと考えています。本文書はまさにその出発点として、人々を中心に置きながら先進AIをどう統治するかについての対話を始めるために書かれたものです。
今日のAIが仕事に与える影響は、しばしばシステムが確実にこなせるタスクに要する時間によって測られます。フロンティアシステムは、人間が数分でできるタスクを支援する段階から、数時間かかるタスクをこなせる段階へと進歩してきました。今後も技術の進歩が続けば、現在人間が数ヶ月かけて取り組むプロジェクトを遂行できるシステムが登場することが期待されます。この変化は、組織の運営方法、知識の創出方法、そして人々が意義や機会を見出す方法を根本から再編します。同時に、今日の政策ツールの限界を明らかにし、超知性への移行において人々を中心に据え続けるための、より野心的なアイデアの必要性を浮き彫りにすることになります。
超知性がもたらす約束・リスク・3つの目標
超知性の約束は並外れたものです。電力が家庭を変革し、内燃機関が移動手段を再定義し、大量生産が必需品のコストを下げたように、超知性は科学的・医学的なブレークスルーを加速させ、生産性を飛躍的に高め、必需品を安くすることで家庭の生活費を引き下げ、まったく新しい形態の仕事、創造、そして起業家精神への道を開くでしょう。
一方で、AIの便益が課題をはるかに上回ると強く信じながらも、そのリスクについては冷静に見つめる必要があります。雇用や産業全体が破壊されること、悪意ある者が技術を悪用すること、アライメントが取れていないシステムが人間の制御を逃れること、政府や機関がAIを民主的価値を損なう形で展開すること、そして富と権力がより広く共有されるどころかさらに集中してしまうこと、これらは現実のリスクとして存在しています。こうしたリスクを強調するのは、政策的な解決策の必要性に対する意識を高めるためにほかなりません。技術の変化に政策が追いつかなければ、この移行を乗り越えるために必要な制度やセーフティネットが遅れをとりかねません。
超知性への移行においてAIがアクセス・主体性・機会を拡大することを確保することが中心的な課題であり、超知性がすべての人に恩恵をもたらす未来を目指さなければなりません。そのためにOpenAIが掲げる目標は3つあります。
第一は「繁栄の広範な共有」です。先進AIの約束は単なる技術的進歩ではなく、すべての人のより高い生活の質です。AIが生み出す新たな機会に、誰もが参加できるようにしなければなりません。生活水準が向上し、コストの低下・健康と教育の改善・安全と機会の拡充という形で、人々が実質的な恩恵を受けられるようにすべきです。もしAIが一部の者だけに支配・享受され、大多数の人々が主体性もAI主導の機会へのアクセスも持てない状態になれば、その約束を果たしたとは言えません。
第二は「リスクの軽減」です。超知性への移行には深刻なリスクが伴います。経済的混乱から、サイバーセキュリティや生物分野における悪用、そしてますます強力になるシステムに対するアライメントや制御の喪失に至るまで、有効な対策なしには人々が傷つくことになります。こうした事態を回避するには、新たな制度・技術的セーフガード・ガバナンスフレームワークを構築し、先進システムが安全で制御可能かつアライメントが取れた状態を維持することが求められます。能力が拡大するにつれて、安全性も同様に拡大しなければなりません。
第三は「アクセスと主体性の民主化」です。能力が向上するにつれ、安全のために制御が必要なシステムも出てくるかもしれません。しかし、AI経済への広範な参加は最も強力なモデルへのアクセスに依存すべきではなく、有用で手頃な価格であり、プライバシーを保護し、個人の主体性を拡大するAIへのアクセスに依存すべきです。富と支配の集中を避けるには、あらゆる場所の人々が、職場・市場・民主的プロセスを通じて真の影響力を持てる形でAIを活用できるよう保障することが必要です。
新たな産業政策の必要性とアプローチ
社会はかつても大きな技術的移行を乗り越えてきましたが、それは現実の混乱と転位なしには実現しませんでした。それらの移行は最終的により多くの繁栄をもたらしたものの、成長が広範な機会とより大きな安全へと確実につながるためには、積極的な政治的選択が必要でした。たとえば産業時代への移行に続いて、革新主義時代とニューディール政策は、電力・内燃機関・大量生産によって再編された世界のために社会契約を近代化しました。これらは労働保護・安全基準・社会的セーフティネット・教育へのアクセス拡大といった、公正な経済が提供すべきものに関する新たな公的制度・保護・期待を構築することで実現されました。
歴史は、民主主義社会が野心を持って技術的激変に対応できることを示しています。社会契約を再想像し、資本と労働の間を仲介し、多元主義・憲法上の抑制と均衡・革新の自由を守りながら技術的進歩の恩恵の広範な分配を促進してきました。超知性への移行はさらに野心的な形の産業政策を必要とします。民主主義社会が集合的に大規模に行動し、超知性がすべての人に恩恵をもたらすよう経済的未来を形作る能力を反映したものでなければなりません。
通常の時代であれば、市場を自律的に機能させる主張には強い根拠があります。歴史的に競争・起業家精神・開かれた経済参加は生活水準を向上させ、機会を拡大してきました。資本主義は不完全ではあるものの、人間の創意工夫を共有の繁栄へと変換する有効なシステムであり続けています。しかし産業政策は、市場の力だけでは不十分な場合、すなわち新技術が既存の制度では対処できない機会とリスクを生み出す場合に重要な役割を果たせます。科学的ブレークスルーを規模の大きな産業と広範な経済成長へと転換する助けとなりえるのです。
新たな産業政策のアジェンダは、公的・民間活動を調整するための政府の既存のツールボックスを活用すべきです。研究資金・労働力開発・市場形成ツール・標的を絞った規制がその例として挙げられます。ただし政府は単独で行動すべきではありません。非政府機関が新たなアプローチを試験し、効果を測定し、迅速に反復し、その後政府が調達・規制・投資を通じてインセンティブを整合させ、効果的なものを拡大することで成功を強化すべきです。この官民連携は規制の虜と集中管理を防ぎ、革新の自由を守りながら、超知性の到来が社会の最も強力な勢力に支配されないよう保障するものであるべきです。
すべての答えを持っているわけではありませんし、その大部分すら持ち合わせていません。異なる道筋は異なる政策対応を必要とし、どのシナリオにおいても単一のツールセットで十分ということはありません。しかし参加を拡大し、機会へのアクセスを広げ、リスクを管理するために必要なセーフガードと制度を社会が備えられるよう保障する政策によって、開かれた同時にレジリエントなAI経済の構築を目指すべきです。本文書はその対話の第一歩として、超知性への移行において人々を中心に置くための産業政策アジェンダの初期的なアイデアを提示するものです。
第1章:開かれた経済の構築(Building an Open Economy)
第1章序論:AI経済の機会と格差リスク
先進AIの約束は、豊富な知識を非凡な進歩へと変換することですべての人に恩恵をもたらせるという点にあります。必需品のコストを下げ、機会を拡大し、意義深く、人間関係を育み、コミュニティを構築するために費やせる時間を人々に与えることができます。また、いまだ人間の努力では解決できていない科学的課題を解決する助けになりえます。疾病の治癒や予防、食料不足の緩和、気候変動下での農業強化、クリーンで信頼性の高いエネルギーのブレークスルーの加速などがその例として挙げられます。科学への大規模投資の成果は一世代のうちに現れ、従来の研究拠点をはるかに超えたコミュニティにまで届く可能性があります。
しかし同時に、この進歩を可能にしているのと同じ能力が、過去のいかなる技術的変化とも異なる速度と規模で雇用を混乱させ、産業全体を再編することにもなります。一部の仕事は消滅し、他の仕事は進化し、組織が先進AIの展開方法を習得するにつれてまったく新しい形態の仕事が生まれるでしょう。
こうした変化は均一には訪れません。思慮深い政策なしでは、AIはすでに上昇気流に乗っている者の優位性をさらに積み重ねる一方、より少ない資源から出発するコミュニティを新たなツール・新産業・新たな機会から排除することで不平等を拡大させかねません。またOpenAIのような少数の企業に経済的利益が集中するリスクもあります。技術そのものがより強力になり広く利用されるようになっても、AIを活用している労働者は生産性が向上していると認めながらも、その恩恵を実感できていないという状況が生まれかねないのです。
容易にアクセスでき参加型の開かれた経済を維持するには、野心的な政策立案が必要です。以下に示すアイデアは、労働者がAI移行において発言権を持てるようにするための提案を含んでいます。労働者は実際にどのように仕事が行われているか、そしてAIが仕事をよりよく・より安全にできる場所について深い知識を持っているからです。また他の提案は、資本へのアクセスを拡大し、経済的利益をより広く共有し、AI主導の成長の恩恵をより高い生活水準と結びつけることで、AI主導の成長からの利益を分配する新たなメカニズムを示唆しています。そして仕事が変わるなかで人々が移行を乗り越え、新たな機会にアクセスし、安定を維持できるよう経済的保障を近代化することも目指しています。これらはすべて合わせて、超知性への移行が生み出す可能性のある広範な経済シナリオを乗り越えるための野心的で予備的なアイデアのポートフォリオを形成しています。
労働者の意見反映・AI起業家支援・AIへのアクセス権
仕事をよりよく・より安全にするために、AI移行において労働者に発言権を与えることが重要です。具体的には、AIが仕事の質を向上させ、安全性を高め、労働権を尊重するよう、経営陣と協力するための正式な仕組みを設けることが求められます。労働者は実際にどのように仕事が行われているか、そしてAIが成果を改善できる場所について深い知識を持っています。テクノロジーの変化が生産性の向上だけでなく、より良い仕事とより強く安全な職場につながるよう、職場でAIをどのように活用できるかを理解するうえで労働者は欠かせない声となります。危険で反復的・管理的・消耗的なタスクを排除して従業員がより高い価値のある仕事に集中できるよう仕事の質を改善するAI導入を労働者が優先できるようにすべきです。同時に、業務負荷の増大・自律性の縮小・公正なスケジュールや賃金の侵害によって仕事の質を低下させる可能性のあるAIの有害な使用には、明確な制限を設けなければなりません。
AI起業家支援の観点からは、ドメイン専門知識を持つ労働者が新たな企業を立ち上げる際の障壁を下げることが重要です。通常、起業の妨げとなっている会計・マーケティング・調達といった間接業務をAIに処理させることで、労働者が専門知識を活かして新会社を設立できるよう支援します。モデル契約や共有バックオフィスインフラといった実践的な「スタートアップ・イン・ア・ボックス」支援と組み合わせたマイクログラントや収益連動型ファイナンスにより、新たな中小企業が迅速に競争できる環境を整えます。労働者団体はトレーニングの提供・共有サービスの提供・労働者が公正な商業条件を交渉しIPを保護する支援を行うことで、この取り組みの推進役を担うことができます。
AIへのアクセス権については、AI へのアクセスを現代経済への参加における基盤として位置づけることが必要です。これはかつてのグローバルな識字率向上への大規模な取り組みや、電力とインターネットを地球の遠隔地に届ける努力と同様の位置づけです。インターネットはいまだ世界中はもとより米国内でさえも公平に普及していませんが、AIについてはこの教訓を活かしてこうした問題を是正することが求められます。現代AIシステムの構成要素である基盤モデルへの手頃で信頼性の高いアクセスを拡大し、無料または低コストのアクセスポイントを含む形でベースラインレベルの能力を広く利用可能にすべきです。これらのシステムを効果的に活用するために必要な教育・インフラ・接続環境・トレーニングを支援し、労働者・中小企業・学校・図書館・サービスが行き届いていないコミュニティが生産性と機会を促進する能力から排除されないよう保障しなければなりません。
税制基盤の近代化・公共富裕基金・電力網の拡張加速
AIが仕事と生産を再編するにつれ、経済活動の構成が変化する可能性があります。企業利益とキャピタルゲインが拡大する一方で、労働所得と給与税への依存が低下するかもしれません。これは社会保障・メディケイド・SNAP・住宅支援といった中核プログラムに資金を供給している税基盤を侵食し、それらを危機にさらす恐れがあります。こうした制度が持続可能であり続けるよう、税制を適応させる必要があります。政策立案者は、上位層のキャピタルゲイン増税・法人所得税・AI主導の持続的な利益に対する標的措置など、資本ベースの収入への依存度を高めること、および自動化労働に関連する税といった新たなアプローチを探ることで税基盤を再調整できます。これらの改革は、既存のR&D型クレジットと同様に、企業が労働者を雇用し続け、再訓練し、投資するよう促す賃金連動のインセンティブと組み合わせるべきです。これらの変化はまとめて、AI主導の経済における労働力移行を支援しながら、必須プログラムへの資金調達を安定させる助けとなります。
公共富裕基金については、金融市場に投資していない人々を含むすべての市民に、AI主導の経済成長における持ち分を提供する公共富裕基金を創設することが提案されます。税制改革が政府による必須プログラムへの資金調達の継続を確保するためのものである一方、公共富裕基金はその成長の恩恵を人々が直接共有できるよう設計されています。政策立案者とAI企業は、基金をどのように最もうまく育てるかについて協力して決定すべきであり、基金はAI企業とAIを採用・展開する広範な企業群両方の成長を取り込む多様化された長期資産に投資できます。基金からの収益は市民に直接分配でき、出発点の資産や資本へのアクセスにかかわらず、より多くの人々がAI主導の成長の恩恵に直接参加できるようになります。
電力網の拡張加速については、AIを動かすために必要なエネルギーインフラの拡張を資金調達し加速する新たな官民連携モデルを確立することが求められます。これらのモデルを活用して、高電圧州間・地域間送電を制限してきた資金調達上の制約・許可の遅延・立地リスクに対処し、インフラをスピードとスケールで提供し、納税者リスクを制限し、恩恵を公共と共有します。アプローチとしては、ターゲットを絞った投資クレジット・直接および間接の柔軟な補助金・エクイティステークによる資本コストの削減、先進導体や高電圧直流送電といった先進技術に対する市場障壁の除去、国家的利益にかなう場合に地域間送電建設を加速するための狭い連邦権限の付与などが含まれます。パートナーシップは商業損失に対する納税者の関与を最小化し、拡大したエネルギーインフラが家庭と企業のエネルギーコスト低下につながるよう設計すべきです。
効率化配当・適応的セーフティネット・ポータブル福利厚生
効率化配当については、ルーティンワークロードが減少し運営コストが低下した際に、AIによる効率化の利益を労働者の福利厚生における持続可能な改善へと変換することが重要です。具体的には、退職積立への企業拠出の増加・医療費の企業負担割合の拡大・保育および介護費用の補助を企業に促すインセンティブが含まれます。また、生産量とサービスレベルを一定に保ちながら、賃金削減なしの週32時間・4日間労働週のパイロットを実施するよう雇用主と組合を促し、その後回収された時間を恒久的な短縮勤務週・積み立て可能な有給休暇・またはその両方へと転換することも提案されます。場合によっては、効率化配当が長期的な経済的安全と労働者への時間還元の両面として現れるよう、測定された生産性向上に連動した予測可能な「福利厚生ボーナス」を企業が提供することも有効です。
適応的セーフティネットに関しては、超知性への移行がすべての人に恩恵をもたらすためには、経済的・健康的安全を提供するよう設計されたシステムが遅延やギャップなく確実・迅速・大規模に機能する必要があります。まず失業保険・SNAP・社会保障・メディケイド・メディケアが単に存在するだけでなく、移行期に人々が直面する現実に対して十分に機能し、アクセス可能で応答性の高いものであることが出発点となります。次に、失業率や地域・産業固有の転位の指標といった公開指標を用いて、AIが仕事・賃金・仕事の質・セクターダイナミクスにどのような影響を与えているかをリアルタイムで明確に測定することへの投資が必要です。これらのシステムは、どこで混乱が起きているか、どれほど深刻かについて政策立案者に適時の視野を提供すべきです。そして、これらの指標があらかじめ定めた閾値を超えた際に自動的に発動する一時的・拡充されたセーフティネットのパッケージ(拡充されたより柔軟な失業給付・迅速な現金支援・賃金保険・訓練バウチャーなど)を定義します。混乱がそのレベルを超えれば支援が拡大し、状況が安定すれば段階的に縮小します。これにより支援が標的を絞られ、期間が限定され、混乱の規模に比例したものになり、プログラムの恒久的な拡大も回避されます。
ポータブル福利厚生については、時間をかけて単一の雇用主に縛られない福利厚生システムを構築することが求められます。具体的には、個人が職を変え・産業を移り・教育プログラムを受け・起業家としての挑戦をするにあたって本人についてくるポータブルアカウントを通じて、医療・退職貯蓄・スキルトレーニングへのアクセスを拡大します。公共プログラムは、どこでどのように働くかにかかわらず退職および訓練支援へのアクセスを拡大することで、重要な福利厚生を雇用状況から切り離すことができます。実施は複数のソースからの拠出を集め、職ではなく個人に付随する標準化されたアカウントに振り向けるポータブル福利厚生プラットフォームを通じて行うことができます。退職システムも、労働者が複数の雇用主をまたいで継続的に給付を積み上げ、ギャップを減らし時間をかけて継続性を維持できるプール型の仕組みを通じて近代化することができます。
人間中心の仕事へのパスウェイ・科学的発見の加速と成果の普及
人間中心の仕事へのパスウェイについては、AIによって転位した労働者の受け皿として、ケアとつながりの経済、すなわち保育・介護・教育・医療・コミュニティサービスにおける機会を拡大することが重要です。AIは管理上の負担を軽減し、より高いパーソナライゼーションを可能にすることでこれらの役割を強化できますが、人間的なつながりは依然として職業の本質的な部分であり続けます。AIが労働市場を再編するにつれて、これらのセクターはトレーニング・賃金・仕事の質への投資に支えられれば転職する労働者を吸収できます。政府はトレーニングのパイプラインを構築し、ケアの役割への移行を支援し、慢性的な人手不足に直面している分野で賃金を引き上げ条件を改善するよう雇用主にインセンティブを与えることができます。
こうした取り組みは、介護を経済的に価値ある仕事として認め、変化する仕事のパターンを支援する家族給付によって補完することもできます。この給付は保育・教育・医療費の一部をカバーしながら、パートタイム労働・再訓練・起業家精神とも両立できるものにすることが望ましいです。これらの取り組みをまとめると、ケアへのアクセスを拡大し、コミュニティを強化し、意義深い人間中心の仕事を創出することにつながります。
科学的発見の加速と成果の普及については、AI生成の仮説を大規模にテスト・検証する能力を劇的に拡大するために、AI対応研究所の分散ネットワークを構築することが提案されます。これらの研究所はルーティンプロセスの自動化・高品質データの収集・仮説生成とテストの間の迅速な反復を可能にすることで、AIシステムを実験ワークフローに直接統合します。その後、検証された発見を現実世界で大規模に活用するために必要な物理的システムとインフラを構築します。これには新技術を展開する組織の能力拡大・実装に必要な施設とシステムのアップグレード・採用を支援するための資金とインセンティブの整合が含まれます。また、AI対応科学に貢献する科学者・技術者・オペレーターを育成するための人材への持続的投資も含まれます。
これらの投資は、ブレークスルーが研究室を超えて広範な利用へと移行することを確保し、同時にAI対応の発見を支えるインフラを構築・維持・運営するために必要な労働力と運営システムを強化します。研究室と生産インフラの両方は、少数のエリート機関に集中させるのではなく、大学・コミュニティカレッジ・病院・地域研究ハブに広く展開すべきです。こうした地理的・機関的な分散こそが、AI時代の科学的成果を特定の地域や組織の枠を超えてすべての人々に届けるための鍵となります。
第2章:レジリエントな社会の構築(Building a Resilient Society)
第2章序論:新たな脆弱性と上流安全対策の継続・歴史的教訓
AIシステムがより高い能力を持ち、経済全体により深く組み込まれるにつれて、新たな豊かさと並んで新たな脆弱性をもたらす可能性があります。一部のシステムはサイバーや生物学的な危害のために悪用されるかもしれません。また、十分なセーフガードなしに展開された場合、若者を含む人々の社会的・感情的な幸福に新たな圧力を生み出すものも出てくるでしょう。AIシステムは人間の意図と整合していない方法で行動したり、意味ある人間の監視を超えて動作したりするかもしれません。そして先進AIが人々・組織・政府の運営方法を再編するにつれて、社会が安定し・安全で・自由であり続けるために依拠している制度や規範に新たな負荷をかける可能性があります。
ここで必要なレジリエンスについては明確に認識しておく必要があります。これらの新たなリスクは孤立したものではなく、一度に一つずつ対処できるようなものでもありません。AIは仕事の行われ方・意思決定の方法・組織の運営方法・国家の相互作用を再編します。したがってレジリエンスを構築するとは、人々と制度がこれらのシステムの使われ方について迅速に適応し、意味ある主体性を維持し、経済的・社会的構造が進化するなかでも広く共有された繁栄を保持できるようにすることを意味します。
過去数年間にわたり、OpenAIを含む先進AI開発者は上流のセーフガードに重点的に取り組んできました。グローバルな標準の開発・評価・軽減措置・リスクに関する透明性の確保、そして展開前にリスクを特定・軽減するために設計されたモデルテスト・レッドチーミング・利用ポリシーへの投資がその内容です。政策立案者もここに注力し、EU AI法や米国の州ベースの規制に要件を成文化しています。同時に、学校・非営利団体・中小企業・コミュニティがAIツールをより安全かつ効果的に使用できるよう、トレーニングとリテラシーの取り組みが拡大しています。これらの上流の取り組みは継続されるべきです。
しかしAIシステムがより高い能力を持ち、より広く展開されるようになると、レジリエンスは展開後に何が起こるかにも依存するようになります。システムがリアルタイムで監視され・不確実性のもとで動作し・エージェント型ワークフロー向けに設計されていない制度に統合されなければならない場面においてです。
これは新しい課題ではありません。変革的な技術が過去に社会を再編した際、新たな恩恵とともに新たなリスクをもたらし、規模が拡大するにつれてそれらを管理するための新たなシステムが構築されました。電力が普及するにつれ、社会は安全基準と規制機関を構築しました。自動車が移動手段を変革するにつれ、安全システムが移動の自由を維持しながらリスクを低減しました。航空では、継続的な監視と協調した対応システムが航空を最も安全な交通手段の一つとしました。食品と医薬品においては、テストと市販後サーベイランスが日常的な使用における安全を確保するのに役立ちました。いずれの場合も、レジリエンスは自動的には生まれませんでした。時間という贅沢を持って構築されたのです。
超知性に向かって進むにつれ、レジリエントな社会を構築するには同様だがより速い取り組みが今すぐ始動する必要があります。以下のアイデアは、よりレジリエントな社会を構築するための野心的なアプローチの一覧です。信頼・説明責任・監査のメカニズムを確立することで、現実の条件のもとで機能する安全システムの構築と拡大に焦点を当てています。また、先進AIが制御可能・透明・民主的価値と整合した状態を維持するようガバナンスを強化する機会を示唆しています。そして、リスクを早期に特定し・情報を共有し・必要な際に迅速に対応を実行できるよう、企業・政府・国家間の協調を改善するアプローチを提案しています。
新興リスクへの安全システム・AIトラストスタック・監査制度
新興リスクへの安全システムについては、サイバーおよび生物学的リスクをはじめとする大規模な危害への経路を含む高リスク領域にわたって、モデルを保護し・リスクを検出し・悪用を防ぐツールを研究・開発することが必要です。脅威モデリング・レッドチーミング・ネットアセスメント・堅牢性テストのために先進AIシステムの活用を拡大し、新たなリスクを早期に特定・予測して軽減戦略に情報を提供します。補完的な保護システムを開発・拡大することも求められます。たとえば、アウトブレイク発生時の医療対策の迅速な特定と生産、将来のリスクに備えるための戦略的備蓄の拡充などがその例として挙げられます。そして調達・標準・保険フレームワーク・事前購入コミットメントを通じてこれらの能力に対する持続的な需要を創出することで、競争的な安全市場を触媒します。時間をかけて、このアプローチは防御策がイノベーションと競争の産物となるようにし、対処するよう設計されたリスクと同じ速さで防御が改善されることを保証します。
AIトラストスタックについては、特にシステムがより多くの現実世界の責任を担うようになるにつれ、人々がAIシステム・その生成するコンテンツ・その取る行動を信頼・検証するのに役立つシステムを研究・開発することが重要です。プライバシーを保護しながらAIシステムへの信頼を構築できる出所および検証標準とツールの開発を推進します。これには、コンテンツ生成や指示の発行といった行動のための安全で検証可能な署名の実現、および広範な監視を可能にすることなく調査と説明責任を支援できるプライバシー保護型のログと監査システムの開発が含まれます。
これらの種類のソリューションは、機密データの収集を最小化しながらシステムの動作と使用に関する重要な情報を取得し、明確に定義された法的または安全上の条件のもとで調査または介入を支援するよう設計すべきです。この取り組みには、組織内の責任を明確化するガバナンスフレームワークの開発とテストも含まれます。具体的には、特定の役割に説明責任をどのように割り当てられるか、およびシステムがより高い能力を持つようになるにつれて委任・監視・エスカレーションプロセスがどのように機能しうるかという点が含まれます。時間をかけて、これらの取り組みはAIとのやり取りへの信頼を構築し、危害が発生した際に責任が適切に割り当てられるよう確保することで、説明責任の基盤を確立できるでしょう。
監査制度については、国家安全保障機関と連携してフロンティアAIリスクの監査標準を策定するために、AI標準イノベーションセンター(CAISI)のような機関を強化することが求められます。政府調達・事前購入コミットメント・保険フレームワーク・標準策定といったツールを使用して、安全性とセキュリティリスクについてAIシステムと製品を評価できる監査者と評価者の競争市場を創出・拡大し、技術と並行して監査能力を構築します。標準は断片化を減らし、小規模企業や複数の管轄区域にまたがって事業を行う企業に不必要なコンプライアンス負担を生じさせないよう、国際的な採用を念頭に置いて設計すべきです。
超知性に向けて進歩するにつれ、化学・生物・放射線・核・サイバーリスクを実質的に高める可能性のある特に高い能力を持つモデルなど、狭い範囲の高能力モデルについては、事前および事後の展開監査を含むより強固な管理が必要になる時点が来るかもしれません。これらの要件は少数の企業と最も先進的なモデルにのみ適用し、それほど強力ではないシステムと、それらの上に構築するスタートアップの活気ある生態系を保護します。このアプローチは、障害が最も大きな危害を生み出しうる場所に標的を絞ったセーフガードを適用しながら、汎用AIへの広範なアクセスを維持し、競争を制限したり規制の虜を可能にしたりする不必要な障壁を回避します。
高リスクモデルへの強化管理・モデル封じ込めプレイブック・使命整合型コーポレートガバナンス
高リスクモデルへの強化管理については、前述の監査制度と標準の延長線上に位置づけられます。特に大規模な危害につながりうる経路、すなわち化学・生物・放射線・核・サイバーリスクを実質的に進展させる能力を持つモデルについては、事前および事後の展開監査を義務付ける枠組みを整備することが必要です。重要なのは、こうした強化された管理を少数の企業と最先端モデルに絞って適用することであり、それ以外の幅広いシステムや、その上に構築するスタートアップ企業の生態系を保護することです。強力な汎用AIへのアクセスは広く維持しながら、失敗した場合の影響が最も深刻な箇所に的を絞ったセーフガードを集中させることで、不必要な規制障壁や規制の虜を招かずに安全を確保するアプローチが実現します。
モデル封じ込めプレイブックについては、一度世界に放たれた危険なAIシステムを封じ込めるための協調したプレイブックを開発・テストすることが求められます。AI能力が高まるにつれ、モデルの重みが公開された場合・開発者が危険な能力へのアクセスを制限する意思や能力を持たない場合・システムが自律的で自己複製できる場合など、危険なシステムを容易に回収できないシナリオに社会が直面する可能性があります。こうした場合の課題は封じ込めとなります。危険な能力の拡散を制限し・危害を軽減し・現実の制約のもとで対応を協調させることです。サイバーセキュリティや公衆衛生といった他の高リスク領域からの経験は、完全な封じ込めが不可能な場合でも、協調した行動が影響を大幅に軽減できることを示しています。AIにおいても同様のアプローチを事前に準備しておくことが、実際のリスクが顕在化した際の被害を最小化するうえで不可欠です。
使命整合型コーポレートガバナンスについては、フロンティアAI企業は意思決定に公益上の説明責任を組み込んだガバナンス構造を採用すべきです。使命整合型ガバナンスを持つ公益法人(Public Benefit Corporation)のような仕組みがその例として挙げられます。こうした構造には、大規模で長期的な慈善・慈善的な寄付を通じたものを含め、AIの恩恵が広く共有されることを確保するための明示的なコミットメントが含まれるべきです。同時に、モデルの重みとトレーニングインフラを確保し・操作的な行動や隠れた忠誠心についてモデルを監査し・高リスクの展開を監視することで、フロンティアシステムを企業や内部者による支配から守り、個人や内部の派閥がAIシステムを静かに権力集中のために使用できないようにすることが必要です。
政府利用へのガードレール・公衆意見のメカニズム・インシデント報告制度・国際的情報共有
政府利用へのガードレールについては、政策立案者が政府のAI利用に関する明確なルールを確立することが必要です。信頼性・整合性・安全性については特に高い標準が求められ、こうした標準は法律に成文化され、技術的セーフガードによって強化されるべきです。同時に、民主的な説明責任を強化するためにAIを活用することも重要です。より多くの政府の意思決定がAI支援のワークフローを通じて行われるようになると、こうしたシステムは他の公的記録とともに記録できる、より明確な政府の推論と行動のデジタル記録を生み出します。適切なセーフガードとともに、監察官・議会委員会・裁判所といった監視機関はAI対応の監査ツールを使用して大規模に不正を検出し・危害を特定し・説明責任を改善することができます。また情報公開法(Freedom of Information Act)を含む透明性フレームワークを近代化し、市民と監視団体が機密情報を保護しながら政府の行動に関する標的を絞った質問を審査するためにAIを使用できるようにすることも提案されます。これにはAIとのやり取りのログとエージェント型行動ログが特定の期間保持しなければならない連邦記録を構成する時期を明確化することも含まれます。
公衆意見のメカニズムについては、整合性がエンジニアや幹部だけによって密室で定義されないよう、公衆意見のための構造化された方法を作ることが求められます。先進AIがより多くの人々の生活に影響する意思決定を行うようになるにつれ、社会はこれらのシステムが何をすべきか・どのような価値が導くべきか・どれほどうまく機能しているかについての共有された明確さを必要とします。透明な仕様・評価フレームワーク・代表的な意見プロセスを通じて整合性をより民主的・わかりやすく・説明責任があるものにすることが重要です。開発者はシステムがどのように動作するよう意図されているかを説明するモデル仕様を公開し、それらのシステムがどのように評価されるかについての情報を共有すべきです。政府と公的機関はこれらの標準を民主的な法律と価値に根差したものにすることで形を与え、従来のビジネス上のステークホルダーと並んで代表的な公衆意見が考慮されるメカニズムを確立することで助けとなるべきです。これらのアプローチは合わさって、AIの進歩がその結果とともに生きなければならない社会の視点を反映するよう確保するのに役立ちます。
インシデント報告制度については、企業が指定された公的機関とインシデント・悪用・ニアミスに関する情報を共有するためのメカニズムを確立することが提案されます。このシステムは処罰より学習と予防を重視し、機密の技術・国家安全保障・競争上の情報を保護しながら透明性と民主的監視を確保する適切な範囲の公開開示を行うべきです。ニアミスの報告には、最終的にセーフガードが危害を防いだとしても、モデルが懸念される内部推論・予想外の能力・その他の警告信号を示した事例が含まれます。これにより生態系は実際のインシデントになる前に際どい場面から学ぶことができます。このような事前学習の仕組みこそが、AI安全のガバナンスが技術の進歩に遅れを取らないための重要な要素となります。
国際的な情報共有については、フロンティアシステムの評価・セーフガードの評価・先進AI能力の政府理解の情報提供のための信頼できる技術機関としてCAISIの役割を拡大することから始め、国際協調の基盤として国家評価機関を強化することが求められます。この基盤の上に構築して、情報交換・共同評価・協調した軽減措置のための共有プロトコルを通じて協力するAIインスティテュートのグローバルネットワークを開発します。時間をかけて、このネットワークは安全と標準に焦点を当てた他の多国間機関に類似した国際的な枠組みへと進化できます。そのような枠組みは、信頼できる公的機関にフロンティアAI開発への可視性を与え、評価結果・整合性の知見・新興リスクを共有するための安全なラボ間・国家間のチャネルを創出し、危機時のコミュニケーションを支援するものとなります。効果的な協力を可能にするため、政策立案者は企業が独占禁止法や競争上の制約に抵触することなく、明確なセーフハーバーと狭い範囲の情報共有ルールを使用して、これらのチャネルを通じて安全・リスク関連の情報を共有できるよう確保すべきです。このシステムは国家安全保障への狭い焦点を超えて、若者の安全と幸福への影響を含む広範な社会的リスクを包含するよう拡大すべきです。
むすび:対話の開始(Starting the Conversation)
今後のプロセスとOpenAIによる具体的な次のステップ
本文書で示したアイデアは、確定した答えではなく、AIがすべての人に恩恵をもたらすことを確保する方法についての、より広い対話の出発点として提示されています。その対話は包括的かつ継続的であるべきで、政府・企業・研究者・市民社会・コミュニティ・家族を巻き込み、人々がAIの未来を形作る真の力を与える民主的なプロセスを通じて媒介されるべきです。また、世界中の文化・社会・政府の視点を取り込む形でグローバルに拡大する必要もあります。
ここに示したアイデアはその取り組みへの最初の貢献にすぎず、始まりに過ぎません。進歩は制度とセクターをまたいだ継続的な反復・実験・協力にかかっています。こうしたアイデアは米国を出発点として焦点を当てていますが、対話と解決策は最終的にグローバルなものでなければなりません。超知性への移行は遠い将来の可能性ではなく、すでに進行中であり、近い将来に行う選択がその恩恵とリスクが今後数十年にわたってどのように分配されるかを形作ることになります。
この対話の勢いを維持するために、OpenAIは具体的な三つの行動を起こしています。第一に、[email protected]を通じたフィードバックの募集と整理を行っています。第二に、これらおよび関連する政策アイデアを発展させる研究に対して、最大10万ドルの研究助成金と最大100万ドルのAPIクレジットを提供するフェローシップと重点研究助成のパイロットプログラムを設立しています。第三に、2026年5月にワシントンD.C.に開設する新たなOpenAIワークショップでの議論を主催します。
これらの取り組みは、超知性への移行において人々を中心に置くために必要な政策と制度についての幅広い対話を促進し、民主的なプロセスを通じてより良いAIの未来を共に構築していくための招待状として位置づけられています。
