※本記事は、AI for Good(ITUおよび50以上の国連パートナーが主催、スイス政府との共同開催)のソリューションステージにおけるセッション「Addressing AI risks to international peace and security at source: Responsible AI education」の動画内容を基に作成されています。動画はhttps://www.youtube.com/watch?v=BGe3Bgd8xbM でご覧いただけます。
登壇者は、国連軍縮局(UNODA)のPolitical Affairs OfficerであるCharles Oink氏、Stockholm International Peace Research Institute(SIPRI)のResearcherであるJuel Pale氏、およびRoyal Institute of TechnologyのStudentであるVivian Manla氏の3名です。本セッションは、EUの支援のもとUNODAとSIPRIが共同で推進するプロジェクト「Promoting Responsible Innovation in Artificial Intelligence for Peace and Security」の成果を紹介するものです。
本記事では動画の内容を要約・再構成しております。原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りが生じる可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。また、AI for Goodの最新情報については、公式サイト(https://aiforgood.itu.int )およびコミュニティプラットフォーム「Neural Network」(https://aiforgood.itu.int/neural-network )もご参照ください。
1. セッション開幕と登壇者紹介
1.1 AI for Good ソリューションステージの概要と登壇者
Jennifer Woodard: 皆さん、こんにちは。AI for Goodへようこそ。そしてソリューションステージへようこそ。これから4日間にわたって、AIを活用した本当に素晴らしいソリューションの数々をご紹介していきます。少しだけ予告をしますと、AIと人道支援エコシステムの関係、量子技術、量子技術と外交、AIと子どもの権利、AI時代における知的財産の意味、そして危機対応・食料安全保障・AIの標準化の未来における戦略的AIの活用など、多岐にわたるテーマを、各分野を牽引するAIの専門家たちとともに議論していきます。私はJennifer Woodardと申します。Logicallyという企業で人工知能担当バイスプレジデントを務めており、この4日間のソリューションステージのホストを担当します。
本日は非常に力強いパネルでスタートします。テーマはAIが国際平和と安全保障に与えるリスクです。このテーマについて、多くの方がAIの持つ含意を十分に理解されていないかもしれません。本日ご登壇いただくのは3名の方々です。まず、Stockholm International Peace Research InstituteのResearcherであるJuel Paleさん。次に、国連軍縮局(UN Office for Disarmament Affairs)のPolitical Affairs OfficerであるCharles Oinkさん。そして、Royal Institute of TechnologyのStudent、Vivian Manlaさんです。それぞれのお立場から、AIリスクと責任ある教育について議論いただきます。どうぞよろしくお願いします。
2. AIと国際平和・安全保障のリスク(Charles Oink)
2.1 技術の中立性という幻想とデュアルユース問題
Charles Oink: 私は国連軍縮局のPolitical Affairs Officerとして、国際平和と安全保障の文脈における責任あるAIを専門としています。この「国際平和と安全保障」という領域は、AIのリスクや影響を考えるうえで、実はあまり注目されていない分野です。民間AIの誤用がもたらす結果についてさえ、十分に議論されていない現状があります。本日の発表は私自身の組織を代表するとともに、Stockholm International Peace Research Institute(SIPRI)との共同イニシアティブとしても行っています。このイニシアティブは欧州連合の支援のもとで実施されており、まさにこれらの課題に取り組むことを目的としています。
まず前提として申し上げたいのは、いかなる技術も中立ではなく、AIも例外ではないということです。AIが薬物の発見から核軍縮の検証に至るまで、持続可能な開発目標(SDGs)の達成や国際平和・安全保障の支援において真の恩恵をもたらしうることは明らかです。しかしその一方で、AIの応用は市民社会、社会全体、そして国際平和と安全保障に対して深刻な影響をもたらす可能性も持っています。民間の領域では、偏見の固定化や労働市場への影響といった問題がしばしば取り上げられます。こうした理由から、AIは安全で、セキュアで、信頼できるものでなければなりません。一言で言えば、イノベーションは責任あるものである必要があります。
2.2 責任あるAIの取り組みの現状と民間分野への偏り
Charles Oink: 現在、責任あるAIに向けた取り組みの多くは民間領域に焦点を当てており、その分野において何が求められるかを明確にする優れた成果を上げています。しかし問題があります。AIのデュアルユース(二重用途)の性質上、善意で、あるいは有益な目的のために開発されたAIであっても、誤用される可能性があり、あるいは意図しない結果をもたらす可能性があります。そしてその意図しない結果や誤用は、国際平和と安全保障に直接的な影響を及ぼしかねないのです。私たちはAI for goodを必要としていますが、それと同じくらい、「善のために安全なAI(AI that is safe for good)」を必要としています。
2.3 AIリスクを源流から断つ発想とSTEM教育の空白
Charles Oink: この問題における朗報は、AIの実践者たちがこうしたリスクの軽減に貢献できるという点です。責任ある実践を通じて、AIのライフサイクルの最初の段階から対処することが可能です。しかし悪いニュースもあります。そうした実践の必要性については広く認識されているにもかかわらず、主要なSTEMカリキュラムにはほとんど組み込まれていないのです。責任ある実践、リスク管理と軽減、とりわけ誤用が平和と安全保障にもたらすリスクに対するこうした焦点が、いずれの国においても標準的なカリキュラムの一部となっていません。次世代のイノベーターたちが、このような視点を持たずして責任あるAIをどうやって実現できるというのでしょうか。
この問いに答えるために、私たちのプロジェクトの教育的な側面を担うJuel Paleに話を移したいと思います。私たちはAIの教授やSTEM分野のPhD取得者たちと協力して、こうした働きかけをどのように行い、どのようにしてポジティブな成果を生み出せるかを探ってきました。
3. STEM教育の実態調査と知見(Juel Pale)
3.1 AI教育者・学習者との対話シリーズの目的と実施概要
Juel Pale: ありがとうございます、Charles。私はStockholm International Peace Research Institute(SIPRI)のResearcherとして、Charlesが紹介したプロジェクトの2つのリード組織のうちの1つを代表しています。この数年間、CharlesをはじめUN軍縮局の同僚たちとともに、未来のAI実践者、AI教育者、そしてAI・STEMの教育や課程開発に携わるcurriculum developerたちとの一連のイベントと対話を企画・実施してきました。
これらのイベントと対話において私たちが明らかにしようとしていたのは、STEMの学生、すなわち未来のAI実践者たちが、自分たちの仕事がもたらす社会的な影響やリスクについて考えるよう促されているかどうか、そして責任あるイノベーションが今日の大学においてどのように、あるいはそもそも教えられているのか、という点でした。端的に言えば、「AIのための善」を確保し、AIリスクを防ぐうえで、現在のSTEM教育はどれほど適合しているのかを知りたかったのです。
3.2 調査から明らかになったギャップと責任ある革新教育の欠落
Juel Pale: これらの対話やイベントを通じて、一つの事実が非常に明確に浮かび上がってきました。それは、未来のAI実践者の育て方に大きなギャップが存在するということです。より正確に言えば、学生たちが自分たちの構築している技術の意味、目的、そして影響について批判的に省察し、関与するための「空間」が与えられていないということです。
学生たちはほとんどの場合、「なぜ自分はこれを作っているのか」「誰がそこから利益を得るのか」「誰が傷つくかもしれないか」「自分たちが開発している技術では解決されない問題は何か」といった問いを投げかけられることがありません。AIのための善を確保するためのこうした批判的な問いが、主流のAI教育からは大きく欠落していることがわかりました。
Charles Oink: Juelが指摘した通りです。そしてこの点は非常に重要です。責任ある実践の必要性については広く認識されているにもかかわらず、それが実際の教育現場に根付いていない。この乖離こそが、私たちがこのプロジェクトで正面から取り組もうとしている核心的な問題です。
3.3 ハンドブック開発:世界中のPhDとのワークショップによるアウトプット
Juel Pale: こうした調査と対話の成果として、私たちは世界各地のPhD取得者たちとの一連のワークショップを実施し、包括的なハンドブックの開発に取り組んできました。このハンドブックは、AI教育における責任ある実践を具体的に支援するためのツールとして設計されています。会場のすぐ後方にあるUNゾーンのブースでも配布しており、本日の午前中だけで教授や学生の方々から大きな反響をいただき、残部がわずかになっているほどです。
Charles Oink: このハンドブックは今後、UN事務局・軍縮局のオケージョナルペーパーとして正式に刊行され、オンラインでも公開される予定です。物理的なコピーはまだ若干残っていますので、ぜひブースにお立ち寄りください。また、この取り組みに関心をお持ちの方は、QRコードからプロジェクトのウェブサイトにアクセスし、直接ご連絡いただくことも可能です。私たちは皆さんのフィードバックを心から歓迎しています。
4. 学生の視点から見た責任あるAI教育(Vivian Manla)
4.1 個人的な気づきのプロセスと問題意識の形成
Vivian Manla: ありがとうございます、Juel。Royal Institute of TechnologyのStudentとして、このプロジェクトに深く関わってきた一人として、明日のAI実践者である私たちがいかにして責任をすべての作業工程に埋め込んでいけるかについてお話しできることを大変光栄に思います。
まず申し上げたいのは、批判的省察とリスク認識が、線形代数やコーディングのベストプラクティスと同じくらい当たり前のものとしてAI教育に組み込まれることがいかに重要か、ということです。この視点が欠けていれば、AI for goodの約束は意図せぬ害によって影を落とされるリスクがあります。だからこそ、こうした本質的なスキルをすべてのSTEMカリキュラムに根付かせることを、私は心から推進したいと思っています。
その重要性をどのように認識するに至ったか、少しだけ私自身の経験をお話しします。私にとってそれは一つの決定的な瞬間があったわけではなく、むしろ緩やかな気づきのプロセスでした。大学に入学したばかりの工学部の学生として、テクノロジーを通じて世界をどう変えられるかということに強い関心を持っていました。そして多くの同級生と同様に、誰かが後のプロセスのどこかで自分たちの研究を守ってくれるだろう、と漠然と思い込んでいました。しかし残念ながら、それは現実ではありません。Charlesが指摘したように、テクノロジーはそれ自体として善でも悪でもありません。そして率直に言って、テクノロジーの安全性を確保するために最もよく備わっているのは、実際にそれを生み出している私たち自身なのです。
誤解しないでいただきたいのですが、STEMの学生の多くを突き動かしている好奇心は、社会の進歩にとって不可欠なものです。ただし、それが適切にチェックされなければ、危険なものになりえます。こうした認識を出発点として、私はこれらのワークショップを通じた観察から、すべてのSTEM学生が恩恵を受けられる三つの主要な領域を見出しました。
4.2 STEM教育に必要な三つの柱
Vivian Manla: 一つ目は、トランスディシプリナリー(学際的)グラウンディングです。この分野における技術的専門知識はもちろん不可欠ですが、AIは真空の中に存在するわけではないということを忘れてはなりません。STEM学生であっても、倫理、政策、国際ガバナンスへの体系的な接触が必要です。そうすることで、ツールを構築する際に、誰が影響を受けるのか、誰がルールを作っているのか、誰が私たちに責任を問えるのかを理解できるようになります。実践的には、これは政治学の学生との共同授業モジュールという形をとることもあれば、多国間機関と交流する機会を設けるという形をとることもあるでしょう。こうした取り組みによって、学生はAIが機能するエコシステム全体をより明確に把握できるようになります。
Vivian Manla: 二つ目は、リスク管理フレームワークへの早期接触です。私たちの多くは技術的なバグを直感的に見つけることができます。しかし偏見、デュアルユースの脅威、情報的な危害といった「社会的なバグ」を発見するためには、追加的なトレーニングが必要です。NISTのAIリスク管理フレームワークやITLE e710のAI標準といったフレームワークを学生に早期に紹介することで、「何が問題になりうるか」「誰が傷つくかもしれないか」「影響はどれほど深刻か」「そしてどのようにこれらのリスクを管理するか」を体系的に問い続ける習慣が身につきます。シンプルなテンプレートや事例研究を用いたガイド付き演習によって、抽象的な懸念がモデルのライフサイクル全体にわたる具体的なチェックポイントへと転換されます。そしてJuelが触れたように、このプロジェクトの成果物の一つである包括的なハンドブックは、まさにその出発点として有効です。
Vivian Manla: 三つ目は、責任ある実践への積極的なインセンティブ設計です。リスク認識がただの任意事項に留まる限り、それは論文発表へのプレッシャーや性能ベンチマークによって後回しにされてしまいます。良い行動を報いる仕組みが必要です。たとえば、リスク評価のセクションを必須とする研究助成の公募、倫理的な精緻さに基づいて原稿を審査するピアレビュー、あるいは社会的な害を軽減する研究を称える大学の表彰制度などが考えられます。責任ある取り組みを、新規性や精度と並んで評価するようになれば、学術文化全体を変えることができると思います。
この三つの柱——学際的グラウンディング、リスク管理フレームワークの導入、そして責任ある実践への積極的インセンティブ——が一体となって、これらのスキルをすべてのSTEM教育に組み込むための実践的なロードマップを形成します。これらは学生に対して、「作れるか」だけでなく「作るべきか、そしてどうすれば安全に作れるか」を問う力を与えるものです。締めくくりに強調したいのは、こうした実践を早く根付かせるほど、それはAIが生み出され展開される過程の自然な一部となっていくということです。新興の実践者として、私たちは自分たちの分野の軌跡を形作る力を持っています。その力を責任ある形で行使し、私たちの教育がAIの約束と危険の両方に備えたものになるよう努めましょう。
5. 構造的課題・展望と参加の呼びかけ(Charles Oink)
5.1 カリキュラム改革をめぐる障壁とリスク放置の代償
Charles Oink: Vivianさん、ありがとうございます。そして登壇者の皆さんにも感謝申し上げます。ここで一点、聴衆の中に学術関係者の方々もいらっしゃるようですので、非常に明確にしておきたいことがあります。こうしたリスクに対処し、責任ある実践を統合すること、特に国際平和と安全保障に関わる責任ある実践をカリキュラムに組み込むことは、決して小さな課題ではないということです。私たちはそのことを十分に認識しています。
直面する障壁は多岐にわたります。Vivianが指摘した課題に加え、カリキュラムへの圧力、カリキュラムの管理権限がどこにあるかという問題、変更することの難しさ、そして財政的資源だけでなくこの種のトレーニングを提供するために必要な人的資源の不足があります。さらに、STEM卒業生の採用環境もこの問題と無関係ではありません。産業界において萎縮効果(chilling effect)が生じれば、それは学習中の人々に影響を与え、特にAI開発の中心的な国々の外に位置する人々に対してより大きな影響を及ぼします。学術的なキャリアにおいて何が奨励され、何が評価されるのかという問題もVivianが強調した通りです。
しかしこれらの障壁があるからこそ、何もしないことのコスト、すなわち国際平和と安全保障に対するリスクを放置することの代償が極めて大きいということを強調しなければなりません。技術が発展し、AIがより高度になり、そしてアクセスが広がるにつれて——このアクセスの拡大という点は特に強調したいのですが——これらのリスクの一部を軽減する私たちの能力は低下していく可能性があります。介入できる機会の窓は、時間とともに閉じていくのです。
5.2 ハンドブックの紹介とフィードバックへの招待
Charles Oink: 民間AIコミュニティがAIのリスク軽減に積極的に関与し、AI for goodのための安定した基盤を確保するための最善の方法は、AI実践者が教育の段階において責任ある取り組みに必要なリソースとトレーニングを受けることです。そうすることで、新しい製品を開発する段階から、AIのライフサイクルに踏み出す最初の瞬間から、これらの懸念が彼らの思考の最前線に置かれるようになります。
最後に、ホストの皆様と聴衆の皆様に感謝を申し上げるとともに、皆様のご参加をお願いしたいと思います。会場に掲示している大きなQRコードから私たちの共同イニシアティブのウェブサイトにアクセスしていただければ、直接ご連絡いただくことが可能です。また、これまでご紹介してきたハンドブックは、この会場のすぐ後ろのUNゾーンにあるブースでも入手できます。世界各地のPhD取得者たちとのワークショップを通じて開発されたこのハンドブックは、本日午前中だけで多くの教授や学生の方々にお手に取っていただき、残部がわずかとなっています。今後はUN事務局・軍縮局のオケージョナルペーパーとして正式に刊行され、オンラインでも公開される予定です。
Charles Oink: 最後に一点だけ申し上げたいことがあります。国連の組織と関わった経験をお持ちの方には、どこか一枚岩と話しているような印象を持たれることがあるかもしれません。しかし私たちは本当に皆さんのフィードバックを求めています。本当に皆さんとの対話を望んでいます。本日と明日、私たちはすぐ後ろのブースに常駐しています。ぜひお立ち寄りいただき、対話を続けましょう。ご清聴ありがとうございました。
