※本稿は、2024年に開催されたAI for Good Global Summit 2024での「AI Futures (Workshop Day 1 + Day 2)」というワークショップを要約したものです。
1. ワークショップの概要と目的
1.1 AI Futuresワークショップの背景
AI Futuresワークショップは、過去数年間にわたって行われてきた一連のワークショップの延長線上に位置づけられています。最初のワークショップは「AIがもたらす未来を想像する」というテーマで開催され、その後「AI駆動型の生活」へと発展しました。昨年は、クローナとタスクチームの協力のもと、「Future Work(未来の仕事)」をテーマに、AIが仕事の未来にどのような影響を与えるか、そしてそれが社会や経済にどのような影響を及ぼすかについて検討が行われました。
今回のワークショップは、これらの過去の取り組みをさらに発展させ、「AI for Good(善のためのAI)」というコンセプトのもとで開催されました。目的は、20年後あるいは30年後の未来において、AIが私たちの生活の一部となった世界を想像し、その中で私たちがどのように生活し、コミュニケーションを取り、知識を共有し、家族との時間を過ごし、移動するかを考えることでした。
ワークショップの特徴的な点は、単に未来を予測したり予想したりするのではなく、参加者に「未来の一日の生活」を想像してもらい、その生活が社会的、経済的、環境的な観点からどのような意味を持つのかを検討することでした。このアプローチは、未来予測の難しさを回避しつつ、具体的で想像力豊かな未来像を描くことを可能にしました。
1.2 ワークショップの主催者と参加者
AI Futuresワークショップは、複数の組織の協力のもとで開催されました。主催者には、タスク・プラットフォーム(TASK Platform)、ジュネーブ国際大学院(Geneva Graduate Institute)、そしてAI for Goodが含まれています。
ワークショップのデザインと進行は、ステファニーとナイルが中心となって行いました。彼らは、過去のワークショップの経験を活かしつつ、今回のワークショップのために新たなアプローチを開発しました。
参加者は、多様な背景を持つ個人や組織から集まりました。学術界、産業界、政府機関、市民社会団体など、さまざまなセクターからの参加がありました。特筆すべきは、通常のAI関連の会議やワークショップでは見られないような「普通ではない参加者(unusual suspects)」も含まれていたことです。これは、AIの未来を考える上で、多様な視点と経験を取り入れることの重要性を反映しています。
ワークショップの進行中、参加者は個人の経験や専門知識を共有するだけでなく、グループワークを通じて協働し、創造的なアイデアを生み出すことが奨励されました。また、参加者には「代表されていない人々」の声を代弁する役割も求められ、社会の多様性をワークショップの議論に反映させることが意図されました。
このような多様な参加者構成と協働的なアプローチにより、AI Futuresワークショップは、AIの未来に関する幅広い視点と創造的なアイデアを生み出す場となることが期待されました。
参加者:
- Amir Banifatemi:AI Commons 共同創設者兼ディレクター
- Caroline Gans Combe:OMNES EDUCATION - INSEEC 准教授
- Felipe Castro Quiles:Emerging Rule GENIA Latinoamérica CEO
- Francesca Rossi:IBM フェロー、IBM T.J. Watson 研究所
- Jose Ramos:Journal of Futures Studies 共同編集者
- Kitrhona Cerri:TASC Platform エグゼクティブディレクター
- Mojdeh Eskandari:SolveCC エグゼクティブディレクター
- Stephanie Camarena:Source Transitions 創設者
- Anne-Catherine Lorrain:欧州議会 上級政策顧問/政治専門家
- Niall McShane:Source Agility 創設者兼マネージングディレクター
- Lisa Dethridge:RMIT大学 上級研究フェロー
- Diana Ayton-Shenker:Leonardo/ISAST CEO
- Jérôme Duberry:ジュネーブ大学院 テックハブ マネージングディレクター
- Cédric Dupont:ジュネーブ大学院 教授
- Gudela Grote:ETHチューリッヒ 教授
- Sandy Chong:Verity Consulting 主任コンサルタント
- Emilia Javorsky:The Future of Life Institute フューチャーズプログラム ディレクター
- Gerassimos Spyridakis:Spheric Capital 創設者兼CEO
- Stuart Russell:カリフォルニア大学バークレー校 コンピューター科学教授、「Human Compatible: Artificial Intelligence and the Problem of Control」著者
2. オープニングセッション
2.1 AIの未来に関する問題提起
AI Futuresワークショップのオープニングセッションでは、AIの未来に関する重要な問題提起がなされました。ワークショップの主催者は、参加者に対して、AIの未来を単なる技術的な進歩としてではなく、社会全体に影響を与える大きな変革として捉えることの重要性を強調しました。
特に注目されたのは、20年後あるいは30年後の世界において、AIが私たちの日常生活にどのように組み込まれているかを具体的に想像することでした。この取り組みは、ハリウッド映画やSF作品から得たイメージに基づくステレオタイプな見方を超えて、より現実的かつ多面的なAIの未来像を描くことを目指しています。
問題提起では、AIが個人のコミュニケーション、知識共有、家族との時間、移動などにどのような影響を与えるかについて考察することの重要性が強調されました。また、AIの未来を考える上で、社会的、経済的、環境的な観点からの検討が不可欠であることも指摘されました。
さらに、AIの未来を考える上で、多様な視点を取り入れることの重要性も強調されました。特に、通常のAI関連の議論では見落とされがちな「普通ではない参加者(unusual suspects)」の視点を積極的に取り入れることの必要性が指摘されました。
2.2 参加者の期待と目標設定
オープニングセッションの後半では、参加者が自身の期待と目標を共有する時間が設けられました。このプロセスは、ワークショップの方向性を参加者全員で共有し、より効果的な議論と成果につなげることを目的としていました。
参加者たちは、様々な背景と専門性を持っており、それぞれの立場からAIの未来に対する期待と懸念を表明しました。特に注目されたのは、「代表されていない人々」の声を代弁する役割を担う参加者たちでした。彼らは、AI技術の恩恵を受けにくい可能性のある社会的弱者や少数派の立場から、AIの未来について考察することの重要性を強調しました。
ワークショップの具体的な活動目標として、以下のようなものが設定されました:
- 2061年の「一日の生活」シナリオを複数のグループで作成すること
- AIの未来に関する多様な視点を共有し、相互理解を深めること
- AIがもたらす機会と課題を具体的に特定し、それらへの対応策を検討すること
これらの目標設定により、参加者たちは共通の方向性を持ってワークショップに臨むことができ、より焦点を絞った議論と創造的な成果を生み出すための土台が整えられました。
3. 多様な視点からのAIの未来
AI Futuresワークショップでは、様々な専門家がAIの未来について独自の視点から議論を展開しました。以下、各専門家の視点を1人称で紹介します。
3.1 ホセ・ラモスによる批判的未来学の視点
「私は、人類と技術の関係を深く考察してきました。人間は本質的に技術的存在であり、技術は人間性の深い表現です。しかし、この関係は今、極端な矛盾点に達しています。我々は技術によって大きな恩恵を受けてきましたが、同時にそれが我々の未来の生存を脅かしています。
例えば、核技術、気候危機、ドローン戦争、生化学産業などを見てみましょう。これらは我々の技術的成功の証ですが、同時に深刻な倫理的問題や環境問題を引き起こしています。社会学者のウルリヒ・ベックが指摘したように、我々は「グローバルリスク社会」を作り出してしまいました。
AIに関しても同様の懸念があります。映画「エクス・マキナ」や「ターミネーター」は、AIに対する我々の無意識的な恐怖を表現しています。これらの作品は、AIの発展に対する我々の不安を反映しているのです。
我々は、技術を社会化し、生態系化する必要があります。つまり、技術を人間の規範やニーズに組み込み、生命の網の中に位置づける必要があるのです。そのためには、生態学的知性、予見的知性、再生的知性、社会的知性、種間知性など、多様な知性を活用する必要があります。
参加型の未来予測は、このような多様な知性を活用し、AIの未来を共に創造するための重要なツールとなります。例えば、「モラルマシン」プロジェクトでは、アルゴリズムのガバナンスについて公衆の意見を求めました。このように、AIの未来に関する重要な問題を公衆に提起し、議論を促進することが重要です。」
3.2 ジェローム・デュベールによるAIリテラシーと市民参加
「私は、AIリテラシーと市民参加の重要性について研究してきました。AIガバナンスは包括的であるべきだと言われていますが、具体的にどのように実現するのかが課題です。その一つの方法が、AIリテラシーの向上です。
我々は、スイス全土で約160のワークショップを実施し、高校生や職業学校の生徒たちにAIの社会的・民主的影響について考えてもらいました。彼らに未来の物語を書いてもらい、その中でAIの影響を識別し議論してもらいました。
収集した約800の短編小説から、3つの主要なテーマが浮かび上がりました。一つ目は環境です。若い世代は、AIを使って地球環境を保護し、気候変動と戦うことを望んでいます。二つ目はコミュニティ構築と合意形成です。彼らは、AIが人々のつながりや合意形成を支援することを期待しています。三つ目は知識です。個人が政治的決定を行うために必要な正しい情報にアクセスできるようにすることが重要だと考えています。
これらの洞察は、AIの未来を考える上で非常に重要です。若い世代の声を聞き、彼らの希望や懸念を理解することが、より包括的なAIの未来を築く上で不可欠なのです。」
3.3 サンディ・チョンによる先住民とマイノリティの視点
「私は、先住民やマイノリティの視点からAIの未来を考察してきました。西オーストラリアの先住民観光協議会の一員として、先住民コミュニティと密接に関わってきました。
AIの発展において、私たちはしばしば西洋的な視点に偏りがちです。しかし、先住民の文化や哲学には、AIの未来を考える上で重要な洞察があります。例えば、多くの先住民文化では、人間を他の種よりも優れた存在とは見なしません。すべての自然が平等であり、尊重されるべきだと考えます。
この視点は、AIの開発や利用にも適用できます。AIを「人工的」なものとして限定的に捉えるのではなく、生きたシステムとして共存する可能性を探ることができます。
また、先住民の知識や記憶の保存方法にも注目すべきです。例えば、「ソングライン」と呼ばれる方法は、場所や状況に基づいて情報を記憶し、それを歌や踊りに組み込みます。これは、身体的、精神的、感情的に情報と関わる方法であり、より効果的な学習や記憶につながります。このような方法をAIシステムに組み込むことで、より感情的に engaging で、記憶に残るシステムを作ることができるかもしれません。
さらに、先住民の「7世代の管理責任」という概念も重要です。これは、今日の決定が7世代先(約140年後)の子孫にどのような影響を与えるかを考慮するというものです。この長期的な視点をAIの開発や利用に適用することで、より持続可能で責任あるAIの未来を築くことができるでしょう。」
3.4 カロリーヌ・ゴコムによるアルゴリズムの不可視性
「私は、アルゴリズムの不可視性という問題に焦点を当てて研究を行ってきました。この問題は、AIの公平性と包括性に深く関わっています。
まず、重要なのは「すべてがデータである」という認識です。私たち一人一人がデータなのです。現在、我々は確実性の世界から確率の世界へと移行しています。これは、AIが次に何が起こるかを集合的に選択するということを意味します。
アルゴリズムの不可視性の問題は、AIモデルの訓練に使用されるデータセットに起因します。現在、データの収集や提供に関する機会は限られており、そのため提供されるデータには偏りがあります。このデータの偏りは、結果としてアルゴリズムの偏りにつながります。
例えば、フランスでは雇用へのアクセスの70%がアルゴリズムによって管理されています。しかし、このアルゴリズムが「多様性」という概念を適切に理解していないと、多様な背景を持つ人々が選考過程から排除される可能性があります。
この問題を解決するためには、データの質と多様性を向上させる必要があります。また、データだけでなく、メタデータ(データに関するデータ)の重要性も認識する必要があります。
アルゴリズムの不可視性は、単なる技術的な問題ではありません。それは社会的包摂や公平性に直接影響を与える問題なのです。我々は、より包括的で公平なAIシステムを構築するために、データの収集と利用の方法を根本的に見直す必要があります。」
3.5 フランチェスカ・ロッシによるAI倫理とガバナンス
「私は、AI倫理とガバナンスの分野で長年研究を行ってきました。この10年間のAI倫理の発展を振り返ると、3つの大きな段階があったと考えています。
第一段階は「認識」の段階でした。特定のアルゴリズムの問題点が指摘され、それに対処するという反応的なアプローチが中心でした。
第二段階は「原則」の段階です。多くの組織がAI倫理の原則を策定しました。現在、200以上のAI倫理原則が存在します。
第三段階は「実践」の段階です。これは、原則を具体的な行動に翻訳する段階です。企業内での実践や、規制への反映などが含まれます。
私は、様々な組織でAI倫理とガバナンスの取り組みに関わってきました。例えば、Partnership on AIは、企業や市民社会組織が協力してAIのベストプラクティスやガイドラインを構築する取り組みです。また、Global Partnership on AIは、各国政府が責任あるAIの開発と使用について協力する場です。
これらの取り組みを通じて、マルチステークホルダーアプローチの重要性を強く認識しています。技術だけでなく、社会や倫理の専門家、政策立案者など、多様な視点を持つ人々が協力することが不可欠です。
AI倫理とガバナンスの取り組みは、単にAIシステムの行動を規制するだけでなく、私たち自身の価値観や行動を見直す機会にもなります。例えば、AIシステムの公平性や透明性について議論することは、人間社会における公平性や透明性についても考えるきっかけになります。
最後に強調したいのは、これらの取り組みをより加速させ、協調的に進めていく必要があるということです。個々の組織が独自の取り組みを行うのではなく、互いに学び合い、協力してAIの倫理的な開発と利用を推進していくことが重要です。」
4. AIの未来シナリオ構築
このセッションでは、参加者たちがグループに分かれて2061年の「一日の生活」シナリオを作成しました。各グループは特定のテーマに焦点を当て、AIが人々の生活にどのような影響を与えるかを想像しました。
4.1 グループワーク:2061年の「一日の生活」シナリオ作成
参加者たちは以下の5つのテーマに基づいてグループに分かれました:文化遺産、司法・制度、予防医療、教育、食糧・食品ネットワーク。各グループは、2061年の社会でAIがどのように統合され、人々の日常生活にどのような影響を与えるかを描くシナリオを作成しました。
- 予防医療チームのシナリオ
予防医療チームは、トリシュという名の女性を主人公としたシナリオを作成しました。このシナリオでは、AIが個人の健康管理や日常生活の最適化に重要な役割を果たしています。
トリシュは、自身の選択により脳内マイクロチップを埋め込んでいます。このチップは、トリシュの日々の活動をプランニングし、適切なタイミングで休憩を取るよう促します。また、AR/VRを使用して友人やパーソナルトレーナーと一緒にワークアウトを行うことができます。
AIは、トリシュの文化的嗜好に基づいて音楽を推奨したり、姉の訪問時に適切な料理を提案したりします。また、ALSを患っている可能性のあるトリシュの母親も神経リンクを使用しており、これによって記憶力の問題が改善され、歴史的な知識や文化的な情報を共有することができます。
このシナリオでは、AIが個人の選択をサポートしつつ、各行動の結果や影響についても情報を提供します。トリシュはAIのサポートを拒否したり、システムから完全に切断したりする選択肢も持っています。また、マイクロチップは可逆的であり、医師の元で完全に取り外すこともできます。
- 教育チームのシナリオ
教育チームは、2061年の学習環境を描いたシナリオを作成しました。このシナリオでは、AIが教育の障壁を取り除き、より包括的で平等な学習機会を提供しています。
主人公は、身体的または経済的な障害のために従来の教育システムから排除されていた人物です。しかし、AIと生成AIの発展により、この人物は世界中の教育にアクセスし、学ぶだけでなく他者の知識にも貢献できるようになりました。
このシナリオでは、教育が単なる知識の獲得の場ではなく、知識を共有し、貢献し、コミュニティに参加する場となっています。学生は教師から学ぶだけでなく、教師も学生から学ぶという双方向の学習環境が実現しています。
AIは、個々の学習者のニーズに合わせてカリキュラムをカスタマイズし、従来の教育システムでは見落とされがちだった才能や能力を引き出す役割を果たしています。
- 司法・制度チームのシナリオ
司法・制度チームは、140歳(外見は60歳程度)の人物を主人公としたシナリオを作成しました。このシナリオでは、分散型の社会モデルや「ネットワーク国家」といった概念が提示されました。
この未来社会では、人々はより自分たちの生活に直接的な影響を与える決定に参加する意欲が高まっています。AIは、この市民参加を促進し支援する重要な役割を果たしています。
また、AIは社会問題の解決にも活用されています。例えば、空き家の効率的な利用を通じてホームレス問題の解決を支援したり、政治家の将来の政策やその影響を予測し、有権者に情報を提供したりしています。
このシナリオでは、テクノクラシーの台頭や、AIによる意思決定の増加といった課題も提起されました。
これらのシナリオを通じて、参加者たちはAIが未来の社会や個人の生活にもたらす可能性のある変化について深く考察する機会を得ました。各シナリオは、AIがもたらす機会と課題の両面を反映しており、参加者たちに未来のAI社会について多角的な視点を提供しました。
5. AIの未来に向けた課題と機会
5.1 エミリア・ジャボルスキによる技術開発の方向性
「Our Futures programのディレクターを務めています。我々の組織は、新興技術が大規模なリスクを回避し、人類に利益をもたらすよう方向づけることを目指しています。
AIの未来を考える上で重要なのは、人々がどのような未来を望んでいるかを理解することです。希望に満ちた、わくわくするようなビジョンがなければ、行動を起こす動機づけが乏しくなってしまいます。現在、技術の未来に関する主要な物語は主に産業界によって作られていますが、これには大きな利害の対立があり、また多様な価値観や社会構造を必ずしも反映していません。
我々は、より代表性のある、ポジティブな未来のビジョンを開発する方法を模索しています。SDGsは、人類が集団的に達成したいと決めたことの一つの出発点となります。AIはこれらの目標達成に強力なツールとなり得ますが、同時に投資先や技術の実際の問題解決への適用を動機づける構造も必要です。
AIは現在、私たちを分断するように設計されていますが、逆に理解を促進し、合意点を見出すようなシステムを設計することも可能です。これはすべて、システムをどのように設計し、どのようなインセンティブ構造の下で開発するかにかかっています。
AIの未来を想像し、実現するためには、技術そのものの開発だけでなく、技術を取り巻く環境やガバナンスの革新も必要です。我々は、より良い未来を創造するために、多様な視点を取り入れ、包括的なビジョンを描く必要があるのです。」
5.2 リサ・デスラージュによる3つの未来シナリオ
「私は倫理的AIの研究を行っています。また、オーストラリアのインターネットドメイン管理機関でも働いています。2044年のAIとウェブの未来に関する研究を行いました。この研究では、ビッグテック、市民社会、学界、インターネットガバナンス、ビジネスの関係者にインタビューやワークショップを行い、AIとウェブの未来に関する人々の希望と恐れを探りました。
その結果、3つの主要なシナリオが浮かび上がりました。これらのシナリオは、未来を予測するものではなく、可能性のある未来を探索するためのナビゲーションツールとして考えてください。
- 「警戒状態」シナリオ
このシナリオでは、国家安全保障が最優先され、AIが監視国家を可能にします。気候変動や国際競争の激化により、多くの市民にとって自由よりも安全が重要になっています。代表民主制に代わって、AIによって制御される様々な形態のガバナンスが登場します。
インターネットは地理的なブロックに分割され、国家によって管理されます。情報は国家の所有物となり、市民の義務は情報を生産することだと考えられています。プライバシーは愛国心に反するものとみなされ、データ共有が文化的規範となっています。
- 「エコロジカル文明」シナリオ
このシナリオでは、集団的なレジリエンスが優先されます。気候危機がもはや無視できなくなり、新しい地政学的勢力が、陸上またはオンラインで相互扶助を通じて協力する生態学的協同組合のグローバルネットワークによって支えられています。
AIはモノのインターネット(IoT)、あるいは「すべてのインターネット」と接続し、地球軌道にまで拡張されたデジタルインフラストラクチャの中心となります。AIは、人間、動物、環境との間の新しい形の触覚的、没入型、感覚的な相互作用を可能にします。
このシナリオでは、情報はできる限りオープンであるべきで、すべての市民が生態学的バランスの維持を援助する役割を果たします。個人のアイデンティティは透明で、すべてが監査可能です。
- 「The Price is Right」シナリオ
このシナリオでは、利益が最優先され、企業が国家の多くの役割を引き継いでいます。2020年代に、市民がサイバー攻撃から自国を守る政府の能力に信頼を失い、ハイテク企業の大物が人類の救世主と見なされるようになったことが、この状況をもたらしました。
防衛や警察などの公共サービスは民間企業が担当し、市民は何よりもまず消費者です。環境危機が主要な課題となっており、あらゆる種類の情報が取引可能な商品となっています。
このシナリオでは、アイデンティティは複数あり、暫定的で、異なるプラットフォーム間の個人のサブスクリプションに紐づいています。プライバシーは特権となり、データ取引所でブローカーによって取引されます。」
5.3 ゲラ・グローによるAIリスク管理アプローチ
「私はスイス連邦工科大学チューリッヒ校で組織心理学を研究しています。技術が仕事の仕方を大きく左右するため、心理学者として技術大学で働くことを選びました。
AIのリスク管理に関して、私は既存のリスク緩和、リスク分析、インシデント報告、失敗からの学習などの手法を活用することが重要だと考えています。これらの手法は他の技術分野ですでに確立されており、AIの開発にも適用できるはずです。
しかし、AI開発の分野では、これらの基本的なリスク分析の原則があまり認識されていないように見受けられます。
AIに特有の課題として、システムの不透明性、複雑性、動的性、そして制御可能性の程度を選択できることが挙げられます。また、最近のAI開発の波の特徴として、AIが企業よりも先に消費者の手に渡ったことがあります。これは前例のない状況で、ガバナンスの在り方を再考する必要があります。
例えば、大規模言語モデル(LLM)のような認証されていない、リスク評価されていない技術が、ボタン一つで誰でも利用できるようになりました。これを職場に持ち込み、使い始める人々がいる一方で、企業や大学はそれを許可すべきかどうか苦心しています。
このような状況下で、自主規制とプロスクリプティブなガバナンスと規制のバランスをどのようにとるべきか、新たな開発が必要です。過去から学べることは多いですが、新たな要素も確かに存在するのです。」
5.4 フェリペ・カストロ・キレスによるラテンアメリカの視点
「カリブ海のプエルトリコ出身で、2つの組織のCEOを務めています。その一つは、K-12向けの教育技術企業です。
AI開発において重要なのは、認識(recognition)です。私たちが気づいたのは、私たちのターゲット市場やセグメントが、私たち自身のモデルを含むどのモデルにも含まれていなかったということです。なぜなら、モデルをトレーニングするために必要な情報が不足していたからです。
ここで重要なのは、データと情報を区別することです。私たちに必要なのは情報なのです。この認識から、ラテンアメリカとラテンアメリカのためのパラメータを将来のモデルやシステムに含めるための国際的な企業を立ち上げました。
包摂性は非常に重要です。包摂性とは、その核心において他者の価値を受け入れることです。個人の価値、自然の価値、生命の価値、私たちの考え方の価値を受け入れることです。私たちは皆、包括的な未来を望んでいます。もはや排除は望んでいません。
人間の考え方は線形ですが、未来は指数関数的です。線形的な考え方で指数関数的な未来を構築することはできません。
私たちは、これらの視点やパラメータを何であれ開発するものに含める必要があります。なぜなら、私たちはこれらの人々に依存しているからです。彼らは私たちに食べ物を与え、私たちが毎日シャワーを浴びる水を運び、自動運転であろうとなかろうと私たちの車を作る人々なのです。
指数関数的な未来が私たちを忘れてしまう前に、線形的な考え方を捨てる必要があります。ここから出て行くときは、ここにいるべき人、指数関数的な未来を私たちと一緒に築くのを助けてくれるはずの人を認識してください。それが教育なのです。」
6. AIの未来に向けたアクションプラン
AI Futuresワークショップの最終段階として、参加者たちはAIの未来に向けたアクションプランの策定に取り組みました。
6.1 チャレンジ戦略の概念導入
このセッションでは、ダイアナ・アーン・シャンカーが重要な視点を提供しました。彼女は、レオナルド国際アート・サイエンス・テクノロジー協会のCEOであり、アリゾナ州立大学の未来イノベーション学部の実践教授でもあります。
アーン・シャンカーは、AIの未来を考える上で、単なる問題解決から「チャレンジ戦略」へのシフトの重要性を強調しました。彼女は次のように述べました:「複雑な時代に対応するための戦略を再構築することが重要です。問題を解決すると、必然的に何か別のものが生まれてきます。したがって、問題解決は短期的な行動であり、長期的な行動はチャレンジ戦略になります。これは持続可能で再生可能であり、究極的には非常に創造的なものです。」
6.2 グループワーク:具体的な行動計画の策定
参加者たちは、これまでのワークショップで作成した2061年の「一日の生活」シナリオを基に、具体的な行動計画の策定に取り組みました。各グループは、自分たちが描いた未来を実現するために必要な行動を特定し、それをアクションプランとしてまとめました。
このプロセスでは、「Could you...?」「Could we...?」「What if we...?」「How might we...?」といった問いかけを用いて、アイデアを生成しました。これらの問いかけは、参加者たちが創造的かつ建設的に考えるのを助け、同時に実行可能な行動計画を立てるのに役立ちました。
各グループは、自分たちのシナリオに基づいて主要な課題を特定し、それぞれの課題に対するアクションプランを策定しました。
ワークショップの最後に、各グループは自分たちのアクションプランを全体に発表し、参加者全員で議論を行いました。この議論を通じて、AIの未来に向けた行動の重要性と、多様な視点を統合することの価値が再確認されました。
アーン・シャンカーは締めくくりとして、次のように述べました:「皆さんが今日ここで行っていることは、すでに違いを生み出しています。影響力があるのです。私たちが行動を起こすことで、思考から行動への移行が始まります。そして、それこそがAIの未来を共に創造する第一歩なのです。」
このセッションを通じて、参加者たちはAIの未来に対する漠然とした不安や期待を、具体的で実行可能な行動計画へと変換することができました。
7. ワークショップの振り返りと今後の展望
AI Futuresワークショップの締めくくりとして、参加者とファシリテーターがワークショップ全体を振り返りました。このセッションでは、ワークショップの進行方法や内容について率直なフィードバックが共有されました。
7.1 参加者からのフィードバック
参加者たちは、ワークショップの構造や内容について様々な意見を提供しました。特に高く評価されたのは、グループ間の活発な対話と参加意欲の維持でした。ある参加者は次のように述べました。「特に今日のこの部屋では、小さくて簡単に騒がしくなり得る環境で、グループがまだとても活発で熱心であるようにマネジメントしたのは、本当に上手くいったと思います。」
また、ワークショップの進行方法についても好意的なコメントがありました。「騒音やその他すべてをうまく管理していました。」という声が聞かれました。
一方で、改善の余地もあると指摘されました。特に、ワークショップの冒頭における主催者の自己紹介と目的の説明について、より明確にすべきだという意見がありました。ある参加者は次のように述べています。「最初のピッチがあまり明確ではありませんでした。それは重要だと思います。なぜなら、人々はあなたたち個人を覚える必要があるからです。」
また、ワークショップの全体的な構造についても、より明確な説明が必要だという指摘がありました。「あなたたちの自己紹介や、ワークショップ全体を通じてのトランジションをもっと明確にすることで、人々があなたたちを信頼できる人として認識し、全体の流れをよりよく理解できたと思います。」
7.2 ファシリテーターの反省と学び
ファシリテーターたちも、ワークショップの進行について振り返りを行いました。特に、パネルディスカッションのモデレーションについては改善の余地があると感じていました。ファシリテーターの一人は次のように述べています。「パネルのモデレーションについては、もっと学ぶ必要があります。これは私たちが普段行っている能力ではありませんでした。」
また、共同ファシリテーションの課題についても言及がありました。「通常、私は単独のリードファシリテーターとして部屋を仕切り、すべてのタイミングを管理します。あなたと一緒に作業する中で、昨日誰かが何かをしてほしいと言っていたときに、あなたがそこでスペースを保持していて、私があなたとつながっていなかったり、何が起こっているのかわかっていなかったりしたことが明らかになりました。」
これらの反省から、ファシリテーター間のより良いコミュニケーションと役割分担の重要性が認識されました。
7.3 今後の展望
参加者とファシリテーターからのフィードバックを基に、今後のAI Futuresワークショップに向けていくつかの改善点が示唆されました。主な点としては、ワークショップの冒頭での明確な自己紹介と目的説明、パネルディスカッションのモデレーションスキルの向上、共同ファシリテーションの改善などが挙げられます。
ファシリテーターたちは、今回の経験を貴重な学びの機会として捉えています。「これは継続的な学習のプロセスです。毎回、新しい課題と機会に直面しますが、それこそがこのような未来志向のワークショップの本質なのです。」
AI Futuresワークショップは、AIの未来について多様な視点から考え、対話し、行動するためのプラットフォームとしての役割を果たしました。参加者の一人は次のように締めくくりました。「全体として、このワークショップは非常にエネルギッシュで刺激的なものでした。AIの未来について考える新しい視点を得ることができました。」
8. 結論:AIの未来を共に創造する
AI Futuresワークショップは、人工知能の未来を多角的に検討し、望ましい未来像を描くという重要な目的を達成しました。このセッションでは、ワークショップ全体を通じて得られた主要な洞察をまとめました。
8.1 多様性と包括性の重要性
ワークショップを通じて最も強調されたのは、AIの未来を考える上での多様性と包括性の重要性でした。フェリペ・カストロ・キレスが指摘したように、現在のAI開発は特定の視点に偏りがちです。彼は次のように述べました。「私たちのターゲット市場やセグメントが、私たち自身のモデルを含むどのモデルにも含まれていなかったということに気づきました。」
サンディ・チョンが提示した先住民の視点や、カロリーヌ・ゴコムが指摘したアルゴリズムの不可視性の問題など、通常のAI開発プロセスでは見落とされがちな視点が、ワークショップを通じて浮き彫りになりました。
参加者たちは、AIの未来を形作る上で、技術開発者だけでなく、社会のあらゆるセクターからの声を取り入れることの重要性を認識しました。
8.2 継続的な対話と協働の必要性
ワークショップを通じて明らかになったもう一つの重要な点は、AIの未来に関する継続的な対話と協働の必要性です。フランチェスカ・ロッシが指摘したように、AI倫理とガバナンスの分野では、様々な組織が個別に取り組みを行っていますが、これらの取り組みをより加速させ、協調的に進めていく必要があります。
参加者たちは、AIの未来を形作るのは単なる技術的な問題ではなく、社会的、倫理的、法的な問題でもあることを認識しました。
ジェローム・デュベールが提案したAIリテラシー教育の重要性も、この文脈で理解することができます。AIリテラシーを向上させることで、より多くの人々がAIの未来に関する対話に参加し、意思決定プロセスに関与することができるようになります。
8.3 希望に基づいた行動の呼びかけ
ワークショップの結論として最も重要なのは、AIの未来に対する希望に基づいた行動の呼びかけでした。ホセ・ラモスが指摘したように、技術の発展は人類に大きな恩恵をもたらす一方で、深刻な矛盾も生み出してきました。しかし、この認識は悲観主義につながるのではなく、より良い未来を積極的に創造していくための原動力となるべきです。
ダイアナ・アーン・シャンカーが提案した「チャレンジ戦略」の考え方は、この文脈で特に重要です。彼女は次のように述べています。「問題解決は短期的な行動であり、長期的な行動はチャレンジ戦略になります。これは持続可能で再生可能であり、究極的には非常に創造的なものです。」
参加者たちは、AIの未来に関する懸念や不安を認識しつつも、それらを建設的な行動に変換していくことの重要性を確認しました。リサ・デスラージュが提示した3つの未来シナリオは、可能性のある未来を探索するためのツールとして機能し、参加者たちに具体的な行動の方向性を示唆しました。
エミリア・ジャボルスキの言葉が、ワークショップ全体の精神を象徴しています。「より良い未来を創造するために、多様な視点を取り入れ、包括的なビジョンを描く必要があるのです。」
このワークショップは、AIの未来を共に創造するための第一歩にすぎません。AIの未来は、技術の進歩だけでなく、私たち人類の選択と行動によって形作られます。多様性を尊重し、継続的な対話を重ね、希望に基づいた行動を起こすことで、私たちは人類全体にとって望ましいAIの未来を共に創造していくことができるのです。