※本記事は、Center for Democracy & Technology(CDT)による「AI Action Plan」に関する提言書を基に作成されています。原文書は2025年3月14日付で、NCO/NITRDのFaisal D'Souza氏宛に提出されたものです。本記事では、CDTの提言内容を要約・解説しておりますが、原著作者の見解を正確に反映するよう努めています。ただし、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、CDTの公式ウェブサイト(https://cdt.org/ )にて原文書をご確認いただくことをお勧めいたします。なお、本提言書はExecutive Order 14179に基づく新たなAI Action Planに含まれるべき最優先事項について述べたものであり、公共の場での普及が認められています。
I. はじめに
1.1 トランプ前大統領のAIガバナンス原則についての説明
私たちCDT(民主主義と技術センター)は、アメリカのAIリーダーシップを確固たるものにするためには、国民に責任を持つAIの広範な採用を支援する強力なガバナンス計画が必要だと考えています。この基盤となるのが、トランプ前大統領の第一期政権中に確立されたAIガバナンス原則です。これらの原則は超党派で広く受け入れられており、AI行動計画の土台として機能すべきものです。
トランプ前大統領は最初に大統領令13859を発令し、米国は「AIの安全なテストと展開のための障壁を減らし、適切な技術標準の開発を推進しなければならない」こと、そして「AIテクノロジーの応用において市民の自由、プライバシー、アメリカの価値観を保護し、AIテクノロジーに対する国民の信頼と信頼を育むことで、アメリカ国民のためにAIテクノロジーの可能性を完全に実現する」ことを明示しました。
続いて発令された大統領令13960では、連邦政府機関が自身のAI調達と使用において優先すべき重要な基準として、以下の項目が指定されました:
- プライバシー、市民権、市民的自由
- リスク管理
- 正確性、信頼性、有効性
- 安全性
- 透明性、理解可能性、文書化
- パフォーマンスモニタリングと修正措置
- アカウンタビリティ
これらの基準は、今日のAIシステムの効果的な設計と使用の基盤となる重要な構成要素として継続的に機能しています。トランプ前政権のAIガバナンスに対するこのアプローチは、さまざまな利害関係者間で広く受け入れられ、産業界と政府機関の両方がAIを設計、調達、使用するためのプログラムの基礎として機能してきました。
1.2 大統領令13859と13960の概要と重要性
大統領令13859「人工知能におけるアメリカのリーダーシップの維持」は、2019年2月14日にトランプ前大統領によって発令されました。この大統領令は、米国が「AIの安全なテストと展開のための障壁を減らし、適切な技術標準の開発を推進しなければならない」という重要な原則を確立しました。また、「AIテクノロジーの応用において市民の自由、プライバシー、アメリカの価値観を保護し、AIテクノロジーに対する国民の信頼と信頼を育むことで、アメリカ国民のためにAIテクノロジーの可能性を完全に実現する」ことも明示されました。この原則は、大統領令13859のセクション2(c)でも連邦機関の中核的な戦略目標として特定されています。
続いて、2020年12月3日に発令された大統領令13960「連邦政府におけるトラストワーシーAIの使用の促進」は、連邦機関が自らのAI調達と使用において優先すべき七つの重要な基準を指定しました。これらの基準には以下が含まれます:
- プライバシー、市民権、市民的自由
- リスク管理
- 正確性、信頼性、有効性
- 安全性
- 透明性、理解可能性、文書化
- パフォーマンスモニタリングと修正措置
- アカウンタビリティ
これらの大統領令の重要性は、米国のAIガバナンスのアプローチにおける基本的な原則を確立したことにあります。特に、国民の信頼を得るためのプライバシー保護や市民的自由の尊重など、アメリカの価値観に合致するAI開発の重要性を強調しています。これらの原則は、後にNIST(米国国立標準技術研究所)によるAIリスク管理フレームワークの開発や、連邦機関のAI使用事例インベントリの公開など、具体的な取り組みに発展しました。
さらに、これらの大統領令で確立された原則は、産業界や政府機関のAI設計、調達、使用のためのプログラムの基礎として機能し、AIの責任ある使用に関する共通の理解と目標を促進してきました。今日、これらの原則は国内外のAIガバナンスの広範な議論において広く受け入れられており、AI行動計画の土台として引き続き役立つものとなっています。
1.3 OMBメモランダムM-21-06について
大統領令13859を受けて、行政管理予算局(Office of Management and Budget)は2020年11月17日にメモランダムM-21-06を発行しました。このメモランダムは「人工知能の規制に関するガイダンス」と題され、連邦機関に対してAIの民間セクター利用に関する規制・非規制アプローチの開発に関する指針を提供しています。
このメモランダムでは、各機関に対して、人々のプライバシー、個人の権利と市民的自由、個人の選択、市民権、公衆衛生、安全、セキュリティに対するリスクを慎重に評価し対処することを助言しています。また、AIアプリケーションが特定の決定や結果においてもたらす公平性と非差別性を促進し、一般市民がAIがいつどのように使用されているかを理解できるような透明性を提供する、規制および非規制アプローチを検討するよう助言しています。
さらに、M-21-06は機関が取りうる非規制アプローチについても論じており、セクター別ガイダンス、自主的基準やフレームワーク、パイロットプログラムなどの開発と促進などが適切な場合があるとしています。これらの非規制アプローチは、法的要件や規則に基づかない方法で産業界に指針を提供することを目的としています。
このメモランダムの重要性は、トランプ前政権が確立したAIガバナンス原則を実際の行政行動に落とし込む枠組みを提供した点にあります。これにより、連邦機関はAIの民間利用に関して、過度な規制負担をかけることなく、一貫性と予測可能性を備えたアプローチを開発できるようになりました。今日、これらの原則と枠組みは、国立標準技術研究所(NIST)のAIリスク管理フレームワークなど、産業界と政府機関の協力によるイニシアチブの基礎として機能し続けています。
II. NISTのAI作業の継続
2.1 NISTの役割とAIリスク管理フレームワーク(AI RMF)の重要性
米国国立標準技術研究所(NIST)は、AIのベストプラクティス、ガイダンス、研究を開発する上で極めて重要な役割を担っています。NISTは規制機関ではなく、自主的な標準やフレームワークを開発する機関です。特に、NISTが開発したAIリスク管理フレームワーク(AI RMF)は、国内外で広く使用されている画期的な文書となっています。
このAI RMFは、AIアプリケーションのライフサイクル全体を通じてAIリスクをどのようにマッピング、測定、管理するべきかを説明しています。その目的は、AIシステムが以下の特性を備えるようにすることです:
- 安全、セキュア、かつレジリエント
- 説明責任があり透明性がある
- 説明可能で解釈可能
- プライバシーを保護する
- 公平である
NISTはさらに、AI RMFの実装を支援するための補助リソースも作成しています。これには、セクター別・使用事例別のプロファイルや、他のフレームワークとAI RMFとの関連性を記述したクロスウォーク(対応表)などが含まれています。これらのツールは、様々な文脈でのAI RMFの採用を促進することを目的としています。
AI RMFの重要性は、AIリスクに関する共通理解と管理アプローチを提供することにあります。これにより、組織はAIシステムの有効性と信頼性を確保し、より広範な採用と信頼につながるとともに、設計、開発、展開におけるイノベーションを促進することができます。
AI行動計画では、NISTにAI RMFの基盤をさらに発展させる取り組みを継続するよう指示すべきです。NISTの自主的な技術標準はAIガバナンスにとって不可欠なツールであり、AIシステムの技術的な動作方法、リスクの原因または寄与方法、それらのリスクを軽減する方法について専門知識に基づいたガイダンスを産業界が継続的に受け取ることが重要です。NISTは測定科学とAIシステムの複雑さに関する独自の技術的専門知識を提供しており、AIリスクの全範囲に対応する堅牢な標準の開発を主導するのに最適な立場にあります。
2.2 マルチステークホルダープロセスの必要性
AIに関する標準は、NISTの専門知識と市民社会、学界、政府、産業界からの専門知識を組み合わせたマルチステークホルダープロセスを通じて継続的に開発されるべきです。このようなプロセスでは、人々の権利保護、安全性と有効性の確保、イノベーションの促進といった利益のバランスを取るために、これらすべての利害関係者からの意見を取り入れることが重要です。
しかし、現実には市民社会の視点や専門知識がマルチステークホルダープロセスから排除されることが多すぎるという課題があります。そのため、AI行動計画ではNISTに対して、このプロセスにコミュニティに直接影響する問題を特定し対処するために必要な市民社会の視点を有意義に統合するよう指示すべきです。
真のマルチステークホルダープロセスは、AIシステムの設計と能力と、その動作や性能との関係についての理解も深めます。このプロセスでは、特定の設計上の選択がシステムの振る舞いにどのように影響するか、そしてそれが最終的にどのような性能につながるかを、より総合的に理解することができます。
この協力的なアプローチは、幅広い専門知識を活用することで、AIガバナンスのより堅牢で効果的なフレームワークの開発を可能にします。市民社会からの意見を含めることで、技術的な専門知識だけでなく、AIシステムが社会に与える実際の影響や、特に脆弱なコミュニティに対する潜在的なリスクについての洞察も取り入れることができます。
このようなインクルーシブなプロセスは、最終的に開発される標準やガイダンスの質と実用性を高め、AIシステムがより広範な社会的文脈で効果的かつ責任を持って機能することを確保するのに役立ちます。
2.3 標準開発プロセスの焦点と測定アプローチ
標準開発プロセスでは、化学・生物・放射線兵器関連の能力やデュアルユース基盤モデルに関連する将来的なセキュリティリスクだけでなく、プライバシーへの被害、システムの非効果性、目的への不適合、差別などのAIの現在進行中のリスクにも焦点を当てるべきです。AIの急速な発展に伴い、これらの日常的なリスクに対処することは、安全で信頼性の高いAIシステムを確保するために不可欠です。
NISTの標準には、AIシステムの安全性、有効性、公平性などの異なる特性を包括的かつ正確に測定するための多面的なアプローチも含める必要があります。また、使用される測定の妥当性と信頼性を判断するためのガイダンスも提供すべきです。
AIシステムの特定の特性、つまり「構成概念」を測定する方法は多数存在しますが、測定方法によって、その構成概念に関するシステムのパフォーマンスの解釈が異なる場合があります。例えば、AIシステムの「公平性」を測定する場合、異なる公平性の定義や測定アプローチによって、同じシステムの評価結果が大きく異なることがあります。
このような測定の複雑さを理解することは、特に外部の専門知識を活用して様々なAIツールを評価する必要がある中小企業やその他のAI採用者にとって重要です。NISTは測定科学の専門知識を持ち、AIシステムの評価方法に関する明確なガイダンスを提供する独自の立場にあります。
標準開発プロセスでは、AIシステムの特性を評価するための様々な測定手法の長所と短所を検討し、特定の状況や用途に最も適した方法に関するガイダンスを提供する必要があります。これにより、組織はより情報に基づいた決定を下し、自社のニーズと価値観に最も適合するAIシステムを選択することができます。
このような包括的な測定アプローチは、AIシステムの評価において技術的側面と社会的側面の両方を考慮に入れることで、より堅牢なAIガバナンスの実現に貢献します。
III. 連邦政府におけるトラストワーシーAIの使用の確保
3.1 政府によるAI活用の可能性と課題
連邦政府機関によるAIの活用は、サービス提供の改善と運用効率の向上のための有望なツールとなっています。実際に、AIシステムは顧客サービスの向上、行政負担の軽減、不正と無駄の防止、福利厚生管理の効率性と有効性の向上において重要な役割を果たす可能性があります。
政府機関はすでにこれらの活用方法を模索しています。2024年にAI使用事例インベントリを通じて、連邦政府機関は2,133件のAI使用事例を公開しました。これは前年と比較して200%増加したことを示しています。この急速な成長は、政府機関がAIの可能性を積極的に探求していることを示しています。
しかし、政府におけるAIの潜在的な利点には、同時に重大なリスクも伴います。これらのリスクには以下のようなものがあります:
- 効果がなく「偽薬」的なツールへの税金の無駄遣い、また法的責任にさらされるリスク
- 適切なプロセス、専門家の意見、透明性とレビューを欠いた包括的なプログラム改革のためのツールの誤用
- 福利厚生が誤って拒否されたり、法執行機関によって誤って標的にされたりした場合の人々の生活と自由への重大な害
例えば、アーカンソー州ではアルゴリズムによる医療給付の削減により、脳性麻痺患者が必要なケアを失うという事例が報告されています。また、ニューヨーク市のAIチャットボットが企業に違法行為を勧めるという問題も発生しました。ロサンゼルス学区のチャットボットは、技術会社が経営難に陥る中で生徒データを不正使用したという内部告発も報告されています。
これらの事例は、政府におけるAIの利用が適切なガードレールとガバナンス構造なしには、重大なリスクをもたらす可能性があることを示しています。AIの可能性を政府の近代化において実現するためには、安全性、信頼性、効率性を促進するためのガードレールとガバナンス構造が必要です。
3.2 トランプ政権のトラストワーシーAIの基盤の評価
最初のトランプ政権は、大統領令13960「連邦政府におけるトラストワーシーAIの使用の促進」を通じて、政府におけるAIの透明かつ効果的な使用を推進するための基盤を築きました。この大統領令は、「機関は[...]市民の自由、プライバシー、アメリカの価値観を保護しながら、公衆の信頼と信頼を育む方法でAIを設計、開発、取得、使用しなければならない」という重要な原則を強調しています。
これらの目標を達成するために、大統領令13960は機関に対して、AIライフサイクル全体を通じて9つの原則を遵守するよう指示しました:
- プライバシー、市民権、市民的自由
- リスク管理
- 正確性、信頼性、有効性
- 安全性
- 透明性、理解可能性、文書化
- パフォーマンスモニタリング
- 修正措置
- アカウンタビリティ
- セーフガードの実施
さらに、大統領令13960は機関に対して、現在および計画中のAI使用を詳述するAI使用事例インベントリを公開するよう義務付けました。この要件はその後、超党派の「米国AI促進法」の制定により法制化されました。
これらの施策は、連邦機関がAIシステムを安全に展開し管理するための強固な枠組みを確立しています。さらに、超党派のAIに関する下院特別委員会も最近、これらの慣行の重要性を認識し、連邦機関が公示と異議申し立てなどのAIガバナンス基準とセーフガードを採用するよう勧告しています。
また、多くの州が州機関によって使用されるAIシステムに対して同様の要件を実施しています。例えば、州政府はAIシステムのリスク評価、監視、透明性などの要件を導入しており、これらのアプローチは連邦レベルの原則と一致しています。
これらの広く受け入れられている公共部門のAIガバナンスのベストプラクティスは、トランプ前政権が確立した原則に基づいており、AIにおけるアメリカのリーダーシップを確保するための強固な基盤を提供しています。このフレームワークは、連邦機関が効果的で透明性があり、アメリカの価値観を反映したAIシステムを採用するための明確なロードマップを提供しています。
3.3 政府AI利用に関する6つのベストプラクティス
3.3.1 リスク評価と軽減
特定のAI使用事例に関連する潜在的リスクを特定し評価することは、機関が被害を事前に軽減するための重要なツールです。連邦機関が様々なAI使用事例を採用するにつれて—報告書の校正ツールから給付金決定の支援まで—各使用事例に関連するリスクを判断することで、機関はリスク管理実践を調整し、限られたリソースを最もリスクの高い用途に適切に配分することができます。
AIリスク管理フレームワークは、この評価プロセスのための重要な指針となります。機関は、個人のプライバシー、安全性、自由、または法的権利に重大な影響を及ぼす可能性があるものなど、高リスクの使用事例を特定し、そのようなシステムに対しては強化されたリスク軽減措置を採用する必要があります。
例えば、単なる内部報告書の校正に使用されるAIシステムは、個人の福利厚生資格を判断するために使用されるシステムと比較して、リスク軽減策が少なくても良いでしょう。後者の場合、システムの精度、バイアス、透明性について、より厳格な評価と継続的なモニタリングが必要になります。
リスク評価プロセスでは、システムの技術的特性だけでなく、それが使用される社会的・法的文脈も考慮する必要があります。例えば、法執行機関によるAIシステムの使用は、個人の自由が危険にさらされる可能性があるため、特に慎重な検討を要します。同様に、医療給付や住宅支援などの重要なサービスに影響を与えるシステムは、人々の生活に直接的な影響を与えるため、より厳密なリスク評価が必要です。
リスク評価は単発のプロセスではなく、継続的な活動であるべきです。AIシステムが展開され、より多くのデータが収集され、新しい使用パターンが出現するにつれて、リスク評価は更新され、リスク軽減戦略は適応されるべきです。このような動的なアプローチにより、機関はAIテクノロジーの進化に伴い、効果的かつ責任を持ってリスクを管理し続けることができます。
3.3.2 テストと評価
展開前および展開後のテストは、公的機関がAIシステムが目的に適合し、効果的に機能し、実際の環境で期待通りに動作することを確保するために不可欠です。展開前のテストにより、実装する前にシステムの性能と潜在的な問題を評価することができます。一方、展開後のテストでは、システムが使用されるにつれて発生する可能性のあるエラーや害を特定し対処することができます。
このようなテストの中核的な要素として、保護対象の特性に基づく潜在的なバイアスについてシステムを評価し、潜在的な差別を特定し防止することが含まれます。バイアスの回避は、信頼と基本的な効果の前提条件です。例えば、法執行の文脈でバイアスのあるAIシステムは、捜査官が誤ったリードや容疑者を追いかけることで時間とリソースを無駄にする可能性があり、最悪の場合、個人の自由を不当に剥奪することにつながる可能性があります。
テストと評価は、システムが特定の使用事例に対して意図された目的を満たしているかどうかを判断するために、明確に定義された基準と指標に基づいて行われるべきです。これらの基準には、精度、公平性、堅牢性、透明性など、AIシステムの様々な側面が含まれる可能性があります。
例えば、福利厚生資格を判断するために使用されるAIシステムをテストする場合、異なる人口統計グループ間で偽陽性や偽陰性の率を評価し、システムが特定のグループに対して体系的に不利な決定を下していないことを確認することが重要です。アーカンソー州の事例では、アルゴリズムによる医療ケアの削減が脳性麻痺患者に不当な影響を与えたという問題が浮き彫りになりました。
テストは単発のイベントではなく継続的なプロセスであるべきです。AIシステムは時間とともに進化し、新しいデータに基づいて学習し、その動作が変化する可能性があります。定期的な再テストと継続的なモニタリングにより、システムが期待通りに機能し続け、新たな問題が迅速に特定され対処されることを確保できます。
さらに、テストプロセスには、システムの技術的性能だけでなく、実際のユーザーや影響を受けるコミュニティからのフィードバックも含めるべきです。このユーザー中心のアプローチにより、システムが技術的に健全であるだけでなく、その使用が意図された結果と社会的利益をもたらすことを確保することができます。
3.3.3 中央集権的ガバナンスと監視
AI行動計画では、既存の機関および機関間のAIガバナンス構造を維持し拡張すべきです。連邦政府機関の最高人工知能責任者(CAIO)、機関間CAIO評議会、機関のAIガバナンス委員会は、機関がAI採用と監視に専念するリーダーを確保し、AI監視とモニタリングを調整し、機関間のコラボレーションを促進し、官民パートナーシップを可能にするための重要なメカニズムです。
2024年2月に連邦政府テクノロジー情報サイトFedScoopに掲載された記事によると、最高AI責任者の役割はトランプ政権において維持されるべき重要な制度であると指摘されています。これらの役職は、機関内でAIガバナンスを確立し、AIシステムの調達と利用に関する戦略的決定を行うための権限と責任を持つリーダーシップを提供します。
中央集権的なガバナンス構造により、機関はAIシステムを取り巻く決定と内部監視の責任を明確に割り当てることができます。これには、システムの調達と、プライバシー、市民権、法的リスクを伴う特に高リスクな使用事例に対する上級レベルの承認要件が含まれるべきです。また、法務、市民権、プライバシー担当者との適切な協議を義務付けることも重要です。
例えば、法執行機関がAIを使用して犯罪パターンを分析または予測する場合、そのようなシステムの採用は、潜在的な市民的自由への影響を評価できる上級のプライバシーおよび市民権担当者による検討と承認の対象となるべきです。
中央集権的なガバナンスは、特に拡大するAI使用事例インベントリがすでに2,000件を超える連邦政府において、統一されたアプローチとリソースの効率的な配分を促進します。CAIOとその評議会は、複数の機関がAIに関連する類似の課題に取り組む際に知識と経験を共有するための重要なフォーラムを提供します。
同時に、最高AI責任者に加えて、機関内のAIガバナンス委員会は、AIシステムのリスク、利益、および技術的能力に関する実質的な専門知識を持つ多様な視点を集め、AIシステムの幅広い影響を確実に考慮するための、より包括的なアプローチを提供することができます。
これらのガバナンスと監視メカニズムは、政府のAI利用における安全性、説明責任、有効性を確保するための基盤として機能します。
3.3.4 プライバシーとセキュリティ
政府におけるAIシステムの採用は、既存のプライバシーとセキュリティのリスクを悪化させ、新たなプライバシーとセキュリティの被害をもたらす可能性があります。これらのリスクには、機密情報の漏洩や、新しく、そして評価が難しいことの多いデータフローを追加することによる政府情報システム内の攻撃領域の拡大などが含まれます。
2024年12月16日、CDTはOMB(行政管理予算局)に対して、連邦政府機関による商業的に入手可能な情報の使用に関するコメントを提出しました。この提出では、AIシステムによって強化されるデータ収集と分析がプライバシーリスクを増大させる可能性があることを強調しました。これらのリスクを考慮すると、連邦政府機関はプライバシー影響評価の実施などの既存のプライバシーとサイバーセキュリティ要件に全てのAI使用を合わせ、AIによって導入される新たなプライバシーとセキュリティリスクに対して積極的に防御する措置を取るべきです。
例えば、AIシステムが個人データを処理または分析する場合、機関はプライバシー影響評価を実施して、データ収集、使用、保持、共有に関連するプライバシーリスクを評価し、そのようなリスクを軽減するための適切な保護措置が整備されていることを確認すべきです。これは、プライバシー法、プライバシー法モダナイゼーション法(Privacy Act Modernization)、大統領令12333などの既存の法的枠組みの下での要件と一致させる必要があります。
さらに、AIシステムは新たなサイバーセキュリティ脆弱性を導入する可能性があります。複雑なAIモデルやアルゴリズムは、敵対的な操作やデータ汚染に対して脆弱である可能性があります。連邦政府機関は、これらの新たなリスクを特定し対処するために、既存のセキュリティ評価プロセスを拡張する必要があります。
プライバシーとセキュリティの考慮事項は、AIシステムのライフサイクル全体を通じて組み込まれるべきであり、単なる事後の考慮事項ではありません。これには、データ収集段階でのプライバシー・バイ・デザイン原則の採用、AIシステムのトレーニングとテスト段階でのセキュリティ評価の実施、展開後の継続的なモニタリングとプライバシー保護の見直しが含まれます。
AIシステムが扱うデータの範囲と性質が拡大し続けるにつれて、プライバシーとセキュリティの保護措置が政府のAI採用の中心的な構成要素であり続けることが重要です。これにより、AIの公共サービス改善の可能性を実現しながら、個人の基本的権利と政府の情報システムの完全性を保護することができます。
3.3.5 市民参加
市民参加は、連邦政府機関がAIシステムに対する公衆の信頼と信頼を高めるための強力なツールです。市民から直接フィードバックを求めることで、連邦政府機関は米国民のニーズと関心がAIシステムの設計、開発、使用全体を通じて組み込まれることを確保できます。
2024年9月17日にAIに関するパートナーシップが発表した「責任あるAIのためのステークホルダー・エンゲージメント」というリソースでは、包括的かつ参加型のAIについてのガイドラインが提供されています。このリソースでは、AIシステムの開発と展開に様々な視点を統合することの重要性が強調されています。これは、すべての市民が技術的進歩の恩恵を受け、不均衡に悪影響を受けることがないようにするために不可欠です。
機関は、公聴会、意見募集の機会、影響を受けるコミュニティグループとの直接協議など、正式および非公式の経路を使用してこのようなフィードバックを求めるべきです。こうした取り組みは、AIシステムが設計、開発、展開される全段階において行われるべきです。
例えば、福利厚生提供を改善するためにAIシステムを展開する機関は、受益者や支援団体と協議してシステムの設計と目標を形作り、システムを展開する前に公聴会を開催して一般からのフィードバックを収集し、展開後に継続的にフィードバックを収集してシステムのパフォーマンスを評価し改善することができます。
市民参加は、技術開発のみを重視した革新とは対照的に、人間中心の革新を促進します。様々な視点と経験を統合することで、AIシステムはより多様なニーズに対応し、意図しない帰結や害を回避するよう設計することができます。
さらに、市民参加はAIシステムの説明責任と透明性を強化します。公衆が政府のAIシステムの開発と使用についての情報を得て、意見を述べる機会があるとき、それはシステムの目的と影響についての理解と信頼を築くのに役立ちます。
市民参加は形式的なチェックボックスではなく、継続的で実質的なプロセスであるべきです。それは公衆の意見と懸念に対する真の受容性を示し、集められたフィードバックに基づいてシステムを修正する意欲を持つべきです。このアプローチにより、政府のAIシステムはより効果的で、市民のニーズに応え、社会的に受け入れられるものになります。
3.3.6 透明性と情報開示
連邦政府によるAIの使用と開発に対する国民の信頼は、連邦政府機関がいつ、なぜ、どのようにAIシステムを使用しているかについての透明性にかかっています。AI行動計画は、現在の使用事例インベントリを基盤として構築することでこれを達成できます。これらのインベントリは、一般市民がいかに機関がAIシステムを使用・管理しているかを知るための重要なチャネルであり、また産業界が公共部門内のAIニーズを理解するためのツールでもあります。
2025年1月23日に公開された2024年連邦政府機関AIユースケースインベントリでは、2,133件のAI使用事例が報告され、前年から200%の増加を示しています。これらのインベントリは、機関がどのようにAIを使用しているか、またどのようなガバナンス措置が講じられているかについての貴重な洞察を提供しています。
さらに、機関はハイリスク環境で個人がAIシステムの影響を受ける場合には、公示と異議申し立ての手段を提供すべきです。特に法執行の文脈では、犯罪事件で使用される証拠を生成したり、犯罪捜査で手がかりを提供するためにAIシステムを使用した場合、そのような手がかりや証拠に基づいて部分的に犯罪で告発された人物に対して開示されるべきです。これは司法省が被告人の適正手続きの権利の一要素として積極的に受け入れるべきものです。
大統領令13960は透明性を政府におけるAIの使用のための重要な原則として正しく確立しました。したがって、DOGE(効率化のための政府部門)が連邦政府全体で高リスクの決定を下すためにAIツールを使用していると報告されている方法について、深い懸念を表明します。報道によると、DOGEは人員削減や支出削減の決定にAIを使用していますが、このアプローチは透明性の原則を体現していないように見えます。
例えば、2025年2月6日のワシントン・ポスト紙の報道によれば、DOGEは削減対象を特定するために機密性の高い連邦政府データをAIに供給しているとのことです。同様に、2025年2月25日のWired誌の記事では、DOGEが政府職員の大量解雇を自動化するソフトウェアに取り組んでいると報じられています。
一般市民と関係者は、DOGEがアメリカ国民に関する最も機密性の高いデータへのアクセスを管理するプライバシーとセキュリティ対策について、また、DOGEのスタッフと機関のリーダーがどのようにAIを使用して重要な決定を下しているかについての基本的な情報を欠いています。したがって、AI行動計画、DOGEウェブサイト、AIインベントリなどを通じて、DOGEがどのようにAIを使用しているのか、また適切なガードレールがどのように配置されているのかを明確にし、積極的に伝えるよう強く促します。これは、最初のトランプ政権が認識した、国民の信頼を得るために必要な透明性を提供するためです。
IV. 国家安全保障目的でのAI利用を市民的自由と憲法に適合させる
4.1 国家安全保障環境におけるAI使用の特別な懸念
国家安全保障環境でAIを使用する際には特別な懸念事項が適用されます。この文脈では、多くの使用事例が高リスクとなります。なぜなら、AIを含む意思決定プロセスにおいて生命や自由が危険にさらされる可能性があり、さらにそれらの使用事例の中には機密上の理由から公開できないものもあるからです。しかし、この機密性がAIシステムの乱用や誤用を隠す可能性もあります。そのため、国家安全保障環境におけるAIシステムの透明性、情報開示、効果的なガバナンスと監視が特に重要となります。
国家安全保障の文脈では、機密性によって透明性の範囲が制限される可能性がありますが、AI行動計画は過去10年間に国家安全保障機関の内外で開発された透明性の原則と実践に基づくべきです。これには、AI使用事例インベントリ、影響評価、AIの使用に関する法的覚書などの重要文書の機密解除審査の義務付け、および関連する議会委員会や事務所への定期的で意味のある報告などが含まれます。
2024年5月22日の国土安全保障委員会への証言で、CDTのジェイク・ラペルーク氏は、AIの監視を強化するための独立した監視機関の設立を提案しました。この提案は、国家安全保障/インテリジェンス分野でのAI使用の機密性と乱用のリスクの高さを考慮したものです。
インテリジェンスコミュニティは18の要素で構成されているため、各要素によるAIの使用の一定レベルの中央集権的ガバナンスが不可欠です。各機関はすでに内部監視目的で他のCAIOと調整できる最高人工知能責任者(CAIO)を持っているはずです。機関は意思決定と内部監視の責任を明確に割り当て、特に高いリスクを伴うシステムの調達と使用事例について高レベルの役人の承認を義務付け、法務、市民権、プライバシー担当者との適切な協議を義務付けるべきです。
同時に、独立した外部監視も国家安全保障/インテリジェンス分野でのAIの安全で信頼できる効率的な使用を促進するために極めて重要です。このような機能の多くは機密扱いとなり、それらの情報公開は国家安全保障を危険にさらす可能性があります。しかし、そのような機能が秘密にされるとき、乱用と誤用のリスクが高いため、関連情報(機密情報であっても)にアクセスできる専門知識、独立性、権限を持つ監視メカニズムが行政府内に確立されるべきです。
CDTは議会がそのような機関を設立することを推奨しており、AI行動計画はそのようなアプローチを支持すべきです。このようなメカニズムにより、国家安全保障目的でのAI使用と憲法上の価値観および市民的自由の保護とのバランスを取ることができます。
4.2 透明性とガバナンスの重要性
国家安全保障の状況では機密分類が透明性の範囲を制限する可能性がありますが、AI行動計画は過去10年間に国家安全保障機関の内外で開発された透明性の原則と実践に基づくべきです。これには、AI使用事例インベントリ、影響評価、AIの使用に関する法的覚書などの重要文書の機密解除審査の義務付け、および関連する議会委員会や事務所への定期的で意味のある報告などが含まれます。
インテリジェンスコミュニティは国家情報長官室(ODNI)のウェブサイトによると18の要素から構成されており、それぞれによるAIの使用に対する一定レベルの中央集権的なガバナンスが不可欠です。各機関はすでに内部監視目的で他の最高人工知能責任者(CAIO)と調整できるCAIOを持っているはずです。
機関は意思決定と内部監視の責任を明確に割り当て、特に高いリスクを伴うシステムの調達と使用事例について高レベルの役人の承認を義務付けるべきです。また、AIシステムの調達や展開に関して、法務、市民権、プライバシー担当者との適切な協議を義務付けることも重要です。
例えば、インテリジェンス機関がターゲットを特定するためにAIシステムを使用する場合、システムの調達と使用は、システムのバイアス、精度、法的影響などの潜在的な問題を評価できる上級法務および市民権担当者のレビューの対象となるべきです。これにより、システムが適切に使用され、市民的自由を尊重することが確保されます。
透明性とガバナンスの取り組みでは、以下の要素を考慮することが重要です:
- 機密性と国家安全保障のニーズを尊重しながらも、可能な限り情報を公開すること
- 独立した機関によるAIシステムの監視と評価を可能にすること
- AIシステムの使用と影響に関する定期的な報告メカニズムを確立すること
- 懸念や問題を特定してエスカレーションするための明確なチャネルを提供すること
これらの透明性とガバナンスの原則は、国家安全保障環境におけるAIの効果的かつ責任ある使用のための基盤を提供します。また、機密性の必要性と市民的自由の保護のバランスを取るのに役立ちます。
4.3 独立した外部監視の必要性
AI行動計画では、国家安全保障・インテリジェンス分野でのAI使用における安全で信頼性が高く効率的な使用を促進するために、独立した外部監視も極めて重要であることを認識すべきです。この分野でのAI使用の多くは機密扱いとなり、それらを公開することは国家安全保障を危険にさらす可能性があります。しかし同時に、そのような機能が秘密にされる場合、乱用と誤用のリスクが高くなるため、関連情報(機密情報であっても)にアクセスできる専門知識、独立性、権限を持つ監視メカニズムが行政府内に確立されるべきです。
2024年5月22日、CDTのジェイク・ラペルーク氏は米国下院国土安全保障委員会で証言し、国家安全保障におけるAI使用を監視するための独立機関の設立を提案しました。この証言では、そのような機関が機密情報にアクセスしながらも政府機関から独立して機能する能力の重要性が強調されました。このようなメカニズムは、既存の監視体制をモデルにすることができますが、AI固有の技術的・法的問題に対応するための専門知識を備える必要があります。
独立した監視機関の主な機能としては以下が考えられます:
- 国家安全保障・インテリジェンス機関によるAIシステムの使用を審査する権限
- 潜在的な市民的自由や権利侵害に関する懸念を調査する能力
- 発見事項と推奨事項を大統領と議会に報告する仕組み
- AIシステムの説明責任を確保するための透明性の促進
CDTは議会がそのような監視機関を設立することを推奨しています。AI行動計画はこのようなアプローチを支持すべきであり、憲法上の価値観と市民的自由を保護しながら、国家安全保障目的でのAI使用のより良いガバナンスと監視の重要性を認識すべきです。
独立した外部監視は、国家安全保障機関が市民権と憲法上の保護を侵害することなく、AIの潜在的な利点を実現することを確保するための重要なチェック・アンド・バランスとして機能します。適切に設計されれば、このような監視は国家安全保障の目標を損なうことなく、透明性、説明責任、信頼を高めることができます。
V. オープンAIエコシステムの支援と国家AIリソースへの投資による競争力強化
5.1 オープンモデルの利点と重要性
過去数年間のAI開発における重要な要素の一つが、AIフロンティアにおけるオープンモデルの継続的な繁栄です。オープンモデル(インターネット上で自由にダウンロード可能なモデルの重み)には、いくつかの重要な利点があります。
まず、オープンモデルはイノベーションを加速し競争を促進します。スタートアップや学術研究者が最先端のAIツールの上に革新を重ねることを可能にします。例えば、現在のLLM(大規模言語モデル)の基盤となっているTransformerと呼ばれるニューラルネットワークのアーキテクチャは、オープン研究から生まれ、コードとデータが公開されています。このようなオープン研究と、PyTorchやTensorFlowのようなオープンソースの機械学習開発フレームワークがなければ、今日のクローズドモデルも存在しなかったでしょう。
また、オープンモデルはAIの素早い普及と広範な採用を促進し、企業がAIシステムをより信頼性高く安全に利用できるようにします。例えば、イギリスの競争・市場局(Competition and Markets Authority)は、「現在、オープンソースとクローズドソースの基盤モデルが混在して利用可能で競争しています。これにより、様々な企業が基盤モデルに投資・開発することが可能となり、経済全体でこれらの基盤モデルを多様なアプリケーションに展開し始めています」と述べています。
さらに、オープンモデルは、少数の大規模で説明責任のないAI企業への権力の集中という有害で不透明な状況を緩和するのに役立ちます。クローズドファンデーションモデルの市場構造は、主に計算インフラのコストの高さから、垂直統合を含む集中傾向があります。オープンモデルは、AIエコシステムの集中を緩和し、イノベーションと競争を促進する重要な役割を果たしています。
オープンモデルが持つもう一つの重要な側面は「モノカルチャー」のリスク、つまり多くの異なる意思決定者やサービスプロバイダーが同じクローズドシステムに依存し、結果として少数の企業がこの強力な新しい情報技術レイヤーを通じてどのような知識や表現が許可されるかを決定する状況を避けられることです。オープンモデルを通じたAIの民主化は、権力が少数の企業ゲートキーパーではなく多くの企業に分散される健全なエコシステムを作り出し、より大きなイノベーション、多様な視点、説明責任の向上という形で社会に利益をもたらします。
超党派の米国下院AI特別委員会も「オープンAIモデルはイノベーションと競争を促進する」と認め、「適切な安全対策を確保しながら、AI開発と使用におけるオープン性を強化する」よう議会に奨励しています。また、国家電気通信情報局(NTIA)も、オープンモデルが「AI研究開発に参加する主体の多様化と拡大」などの「幅広い利益をもたらす」と認めています。
AI行動計画は、アメリカがオープンモデル開発の先駆者であり続けることを確実にする方針を設定すべきです。
5.2 イノベーション加速、採用促進、権力集中緩和の効果
オープンモデルの最も重要な利点は、AIにおけるイノベーションを加速する可能性です。現在の生成AIと基盤モデル技術の発展は、オープン研究なしには不可能だったでしょう。例えば、今日のLLMの基盤となっているTransformerと呼ばれるニューラルネットワークのアーキテクチャは、公開されたコードとデータを持つオープン研究から生まれました。さらに、オープンモデルは、クローズド基盤モデルでは不可能なAI研究の多様性を可能にします。これには、AI解釈可能性手法に関する研究や、堅牢な電子透かし技術の公開開発などが含まれます。
オープンモデルの二つ目の関連する利点は、企業によるAIの素早い採用を促進する能力です。オープンソースソフトウェアの歴史から、オープンモデルがスタートアップや大小の企業、世界中の開発者やユーザーコミュニティへの基盤モデル技術の普及を、より速く、より安価に実現すると予想できます。実際に、それはまさに起こっていることです。DellやWells Fargoなどの大企業が、社内の知識管理や社内ソフトウェアコーディングを支援するためにオープンモデルを使い始めています。DellのAI戦略担当SVPは、「多くの顧客が自問しています:『待てよ、なぜ自社のビジネスについてほとんど知らない超大規模モデルにお金を払っているのだろう?これらのオープンソースモデルの一つを使えないだろうか...?』」と述べています。
オープンモデルはまた、クローズドAIモデルエコシステムに関連する権力の集中を緩和します。クローズド基盤モデルの市場構造は、主にトレーニングのための計算インフラの高コストにより、垂直統合を含む集中傾向があります。オープンモデルはAIエコシステムの集中を緩和し、イノベーションと競争を促進する上で重要な役割を果たしています。さらに、少数のクローズドシステムに支配される基盤モデル市場は他のリスクも伴います。特に「モノカルチャー」の発生、つまり多くの異なる意思決定者やサービスプロバイダーが同じクローズドシステムに依存し、結果として少数の企業がこの強力な新しい情報技術レイヤーを通じてどのような知識や表現が許可されるかを決定する状況が考えられます。これは政治や文化に対する過度な影響力を持つ危険性を引き起こします。
オープンモデルを通じたAIの民主化は、権力が少数の企業ではなく多くの実体に分散される健全なエコシステムを作り出し、より大きなイノベーション、多様な視点、説明責任の向上という形で社会に利益をもたらします。ヘリテージ財団のような保守的シンクタンクも、AIに関するヨーロッパ的アプローチの集中化された性質に反対し、米国はオープンモデルを通じてイノベーションと競争を支持すべきだと主張しています。
オープンモデルが広く使用されていることを考えると、米国がオープンモデル開発で主導的地位を維持し、米国のオープンモデルが企業が製品を構築する基盤であり続けることが重要です。中国の研究機関DeepSeekによるR1モデルのリリースなどの最近の動向は、米国が国内のオープンモデル開発を阻害する政策を実施した場合、他国によって開発されたオープンモデルがAI経済の多くの基盤として米国のモデルに取って代わる可能性があることを示唆しています。
5.3 国家AIリソース(NAIRR)の役割と重要性
AI行動計画はまた、AIにおけるアメリカの継続的なリーダーシップを確保する上で国家AIリソース(NAIRR)が果たす重要な役割を認識すべきです。NAIRRは、最先端のAI開発に必要な計算リソース、データ、ツールへのアクセスを民主化できる、国家のAI研究インフラへの重要な投資を表しています。
超党派の下院AI特別委員会と超党派の上院AIワーキンググループの両方が、NAIRRがアメリカのAI研究エコシステムを強化し、リソース制約のために最先端のAI研究から除外される可能性のある幅広い研究者、スタートアップ、企業の参加を可能にする重要性を明示的に認識しています。
AI行動計画内でNAIRRの実装を優先事項として主張することで、政権はアメリカのイノベーションを増幅する強力なプラットフォームを創出し、同時に新たなAIの課題に思慮深く、証拠に基づいた方法で対処するために必要なリソースを提供することができます。
NAIRRは、多様な研究者や機関が計算能力やデータセットなどの重要リソースを共有できるようにすることで、AIの民主化に重要な役割を果たします。これは特に、これらのリソースへの独自のアクセスを開発することができない小規模な研究グループや学術機関にとって重要です。
さらに、NAIRRは研究の重複を減らし、共同研究を促進し、AIの安全性と責任ある利用の改善に貢献できる重要な調査結果の普及を加速することができます。これは、AIの社会的影響に関する研究、AIシステムのバイアスを軽減する技術、AIの説明可能性と解釈可能性の向上など、公共の利益のための研究を特に支援するために重要です。
NAIRRをAI行動計画の中心的な要素として位置づけることで、政権はAI研究の民主化を促進し、アメリカのAIイノベーションと競争力を強化し、より包括的で多様なAIエコシステムを育成することを優先することを示すことができます。
VI. 民間セクターのAI利用の形成
6.1 信頼性と効果的なAIシステムの必要性
AIの広範な採用には、AIシステムが効果的で目的に適合し、安全であり、人々の権利を損なわないという信頼が必要です。企業がAIシステムを開発し導入する際には、これらの目標を達成するための実用的なガバナンス措置を採用する必要があります。これは長年の法的義務にも適合するものです。
企業やその他のAI採用者は、AIが信頼でき、目的に合致していることを確保するために取り組む必要があります。信頼できないAIシステムは投資の無駄になるだけでなく、企業と顧客に実害をもたらす可能性があります。例えば、バイアスのあるAIシステムは特定の顧客グループを体系的に不利にする可能性があり、不正確なAIシステムは間違った情報に基づいて重要な決定を下す可能性があります。
ニューヨーク市のAIチャットボットが企業に違法行為を勧めるという事例は、目的に適合していない非効果的なAIシステムの潜在的な問題を示しています。このような問題は、十分なテスト、評価、そして責任あるAIガバナンスプラクティスの採用によって回避できたはずです。
さらに、プライバシーと安全性は、民間セクターがAIシステムを開発する際に考慮すべき重要な要素です。プライバシー侵害やセキュリティ脆弱性は、消費者や企業に重大な損害を与える可能性があります。例えば、ロサンゼルス学区のチャットボットに関連する内部告発は、学生データの不正使用の問題を指摘し、AIシステムにおける強力なプライバシー保護の重要性を強調しています。
企業がAIシステムを採用する際に信頼を構築するには、透明性と説明可能性も重要です。ユーザーがAIシステムがどのように機能し、どのように決定を下しているかを理解できることは、AIに対する信頼と受容を促進する上で重要です。
効果的で信頼できるAIシステムを開発することは、企業の法的義務を満たすだけでなく、強固なビジネス戦略でもあります。信頼できるAIは、顧客忠誠度の向上、規制リスクの低減、AIへの投資からのより大きなビジネス価値の実現につながります。
したがって、AI行動計画は民間企業に効果的で信頼できるAIの開発と展開を奨励すべきであり、そのためには適切なガバナンス措置の採用が不可欠です。これには、リスク評価、テストと評価、透明性、プライバシー保護、そして継続的なモニタリングが含まれます。
6.2 規制および非規制アプローチの役割
AI行動計画は、OMBメモランダムM-21-06の言葉を借りれば、「プライバシー、市民的自由、国家安全保障、そしてアメリカの価値観を適切に保護しつつ、AIの革新と採用を促進する政策の一貫性と予測可能性を確保する」ために、各機関に規制および非規制アプローチを取るよう指示すべきです。例えば、前述のように、NISTは自主的な標準、評価と測定の方法論、およびその他のフレームワークの開発を継続すべきです。
FTC(連邦取引委員会)は、その第5条の執行権限を使用して、目的に適合していないシステムを開発・販売したり、そのシステムの能力について顧客を欺いたりするAIプロバイダーに対して措置を取るべきです。セクター別の機関は、それぞれのセクターにおける適切な慣行に関するガイダンスを提供し、AIの使用を反映するために必要に応じて規制を適応させ、企業が規制義務に違反するようなAIの使用に対して執行措置を取ることができます。AI行動計画は、OMBが以前にM-21-06で行ったように、機関がこれらおよびその他の責任を果たすべきであることを明確にすべきです。
規制機関は既存の規制権限を使用してAIの誤用から消費者を保護し、AIの責任ある発展を促進することができます。例えば、FTCは不公正または欺瞞的な取引慣行に対する執行措置を通じて、消費者を害するAIの誤用に対処できます。同様に、公民権法を執行する機関は、AIシステムによる差別的な影響の事例を調査し対処することができます。
しかし、規制だけがAIガバナンスの唯一のツールではありません。自主的な標準、業界主導のイニシアチブ、そして最良の慣行の開発も重要な役割を果たします。NISTのAIリスク管理フレームワークのような取り組みは、規制の義務付けなしに業界がリスクを識別し対処するための構造化されたアプローチを提供します。
また、業界別のガイダンスも特定セクター特有の課題に対処するために貴重なツールとなります。例えば、医療におけるAI使用に関するガイダンスは、患者のプライバシーやケアの質などの特定の懸念に対処する必要があります。金融サービスにおけるAI使用に関するガイダンスは、公平な貸付慣行や消費者保護に焦点を当てるでしょう。
AIに関するパイロットプログラムやテストプロジェクトも、新興技術の影響を評価し、より恒久的な規制ガイダンスの開発を周知するための効果的な方法となり得ます。これらは、実際の証拠に基づいた規制と政策の開発を可能にし、意図しない結果を最小限に抑えるのに役立ちます。
また、AIガバナンスには学術研究と官民パートナーシップも重要な役割を果たします。AIの社会的影響に関する研究の資金提供と、責任あるAI開発のための共同イニシアチブは、効果的なガバナンスを促進するのに役立ちます。
最終的に、AIガバナンスに対する最も効果的なアプローチは、規制と非規制ツールの両方を含む多層的な戦略となる可能性が高いです。このアプローチにより、基本的な保護が確保されると同時に、イノベーションが促進され、AIテクノロジーの責任ある開発と使用が支援されます。
6.3 機関間調整メカニズムの確立
AI行動計画はまた、最高AI責任者評議会などを通じた継続的な機関間調整のためのメカニズムを確立すべきです。これらのメカニズムは、各機関が個別の規制・執行権限を効果的に行使するのを支援し、ベストプラクティスや知見を交換するフォーラムを提供し、一貫性を促進し、その他の方法で調整し、また機関がAIにどのようにアプローチしているかについてホワイトハウスに概要を提供して、独自の政策開発の情報とすることができます。
2025年2月18日、FedScoopに掲載された記事で、ベサニー・アバテ氏は「最高AI責任者はトランプ政権で維持されなければならない」と主張しました。この記事では、CAIOがAI政策の一貫した実施と機関間の知識共有を確保する上での重要な役割が強調されています。
機関間調整メカニズムは、AI政策に影響を与える複数の機関の行動間で整合性と相互補完性を確保するために不可欠です。例えば、FTCと公民権担当部署、金融規制当局は、差別的なAI慣行に対処する際に協力することが必要かもしれません。同様に、NISTとセクター別機関はベストプラクティスと標準の開発で協力し、それらが各セクターの具体的なニーズと特性に対応していることを確保できます。
この調整は、単一の統一的なアプローチではなく、むしろ学習と経験の共有を通じた協力と調和のプロセスと見なされるべきです。各機関は独自の専門知識と権限を持っていますが、AIの分野横断的な性質を考えると、これらの取り組みを連携させることが重要です。
CAIO評議会などの正式な構造は、機関が直面している課題や課題、成功した戦略について定期的に情報を交換するためのフォーラムを提供できます。これにより、機関は過去の成功と失敗から学ぶことができ、効果的なアプローチの普及が促進されます。
また、このような調整メカニズムは、AIに関連する新たな問題や懸念が発生した場合に迅速に対応するための能力を提供し、政府全体のAI取り組みの進展状況に関する一元的な報告を可能にします。
AIの急速に進化する性質を考えると、これらの調整メカニズムは柔軟で適応力があり、テクノロジー環境の変化に対応できる必要があります。AI行動計画では、これらのメカニズムを定期的に見直し、必要に応じて調整することを規定すべきです。
機関間調整のこのようなアプローチは、政府のAIポリシーの一貫性と有効性を確保し、規制の重複や矛盾を最小限に抑え、AI技術の責任ある革新、開発、使用を促進するための協調的な環境を創出するのに役立ちます。
VII. 結論
7.1 米国のAIリーダーシップに関する見解
AIアクションプランは、米国のAIリーダーシップには効果的で目的に適合し、かつ国民の権利と安全を保護するAIシステムの開発と展開が必要であることを認識すべきです。これらの基準を満たすシステムのみが、AIの採用と使用につながる信頼を生み出し、それがさらなる投資と革新を促進します。
AIアクションプランには、政府と民間セクターの両方が基本的なアメリカの価値観を保護・促進するAI開発を追求することを確実にするために必要な手順を含めるべきです。これには、NISTPの自主的基準開発の継続、政府によるAIの責任ある使用の確保、オープンなAIエコシステムの促進、そして民間セクターにおける適切なAI開発と使用のための規制・非規制的アプローチの両方を各機関が取ることが含まれます。
このような包括的なアプローチを通じて、米国はAI技術の発展を主導しながら、同時に市民の権利と安全を確保することができるでしょう。AIの信頼性と有効性を高めることで、AIの広範な採用が促進され、それがさらなる投資と革新を生み出す好循環が作られるのです。
7.2 効果的かつ目的に適合したAIシステムの重要性
米国のAIリーダーシップを確立・維持するためには、効果的で目的に適合したAIシステムの開発が不可欠です。AIシステムは単に技術的に高度であるだけでなく、実際の使用環境で期待される機能を確実に果たせるものでなければなりません。このような信頼性の高いシステムだけが、企業や政府機関、そして一般市民からの信頼を獲得し、広範な採用につながります。
AIシステムの効果と適合性を確保するには、開発段階からの綿密なリスク評価とテスト、実際の運用環境での性能モニタリング、そして問題が発生した場合の迅速な対応メカニズムが必要です。また、トランプ大統領の最初の任期中に発行された大統領令13960が示すように、政府機関のAI使用においてはプライバシー、市民権、市民的自由の保護、リスク管理、正確性、信頼性、効果、安全性、透明性、説明可能性などの原則を優先することが重要です。
さらに、AIシステムが目的に適合しているかどうかを評価するためには、多様な利害関係者からのフィードバックが重要です。市民社会、学術界、産業界からの多角的な視点を取り入れることで、AIシステムが社会全体のニーズと価値観に適合していることを確保できます。このような包括的アプローチにより、AIは技術革新を促進すると同時に、アメリカの価値観と市民の権利を守る強力なツールとなるでしょう。
7.3 政府と民間セクターの役割
AIの発展と責任ある利用において、政府と民間セクターはそれぞれ重要な役割を担っています。
政府の役割としては、まずNISTを通じた自主的な技術基準の開発継続が挙げられます。NISTはAIリスク管理フレームワーク(AI RMF)などを通じて、AIシステムがどのように安全、セキュリティ、説明可能性、プライバシー保護、公平性などの要素を満たすべきかという指針を提供しています。このような基準開発は、多様な利害関係者からの意見を取り入れた多角的なプロセスを通じて行われるべきです。
政府機関自身もAIの責任ある使用者として模範を示す必要があります。特に高リスクな使用事例では、リスク評価と緩和、テストと評価、集中的なガバナンスと監視、プライバシーとセキュリティの確保、市民参加の促進、そして透明性と開示を実践すべきです。国家安全保障の文脈では、AIの使用に関する適切な監視メカニズムが特に重要です。
一方、民間セクターはAIの開発と展開において、責任あるガバナンス措置を採用し、長年の法的義務を遵守する必要があります。多くの企業がすでに、プライバシーとセキュリティ、透明性と説明可能性、安全性、信頼性、公平性、人間の監視とフィードバックメカニズム、責任など、政府の原則と一致する価値観を自主的に採用しています。
政府と民間セクターの協力を通じて、AIの革新と採用を促進しながら、国民の権利と安全を保護するバランスの取れたアプローチが実現できます。AIアクションプランは、機関間調整のメカニズムを確立し、各機関が個別の規制・執行権限を効果的に行使できるよう支援するべきです。