※本記事は、2024年独日仏AIカンファレンスの開会挨拶および基調講演「生成AIの民主化」の内容を基に作成されています。 本カンファレンスの詳細情報は、DWIHウェブサイト(https://www.dwih-tokyo.org/ja/event/ai4/ )でご覧いただけます。英語版の講演動画はYouTube(https://youtube.com/live/Idvd4noIxts )でご視聴いただけます。 本記事では、カンファレンスの内容を要約しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの講演動画をご視聴いただくことをお勧めいたします。 DWIHは日独の科学・イノベーションに関する情報を発信しており、研究開発に関する最新の動向を日本語・ドイツ語・英語で提供しています。より詳しい情報については、DWIHのウェブサイトやソーシャルメディアアカウントをご参照ください。 本カンファレンスは、DWIH東京、フランス大使館、日本の人工知能研究開発ネットワークの主催、および日本政府からの協力を得て実施されました。
1. 開会セッション
1.1 開会挨拶 (Axel Karpenstein, DWIH東京所長)
「私はカーペンシュタイン・アクセルです。DWIH東京の所長をしております。今回の2日間のカンファレンスは、私たちの組織が研究者とイノベーターをつなぐプラットフォームとして機能しております。今回は前回から3カ国、ドイツ、フランス、日本をつなぐ役割を果たしております。2018年以来、AIというのは我々にとって重要なトピックとなりました。まさに世界中でAIの重要性が高まっている背景があるからです。
生成AI、民主化、透明性、持続可能性の道という会議なんですけど、AIって今誰もが話題にしているトピックのようです。でもこの会議で面白いなと私が思ったのは、もはや単なる技術的な会議じゃないということです。新しい視点で問題を探求していて、このテクノロジーをどうやって使いやすくするのか、分かりやすくするのか。大事なのは責任のあるAIを実現することです。まさにそれが重要なポイントですよね。
単なる技術的な会議じゃなくって、3か国の共催のイベントですから、ドイツ、日本、フランスの一流の専門家がみんなで集まって、生成AIが社会全体に与える潜在的な影響について真剣に話し合うということでしょうね。素晴らしい組織のバックアップもあって、DWIH東京、それからフランス大使館、日本の人工知能研究開発ネットワークが主催になっています。さらに日本政府から協力なバックアップを受けています。内閣府をはじめとして科学技術振興機構や日本学術振興会が後援しているんです。
私自身もAIを使ってパワーポイントのプレゼンの画像を作ってみたり、息子のその物理学の試験の準備を手伝ったり、生物学の試験のお手伝いをしたり、あるいは冷蔵庫の中にあるものを写真撮っといて今晩何を作ろうかっていうブレインストーミングしてもらったり。本当に驚異的な可能性が存在するわけです。
ただ課題も伴っています。それについてこのカンファレンスで話していきたいと思います。例えばそのAIの民主化の重要性です。全ての人がアクセスできるように、利用できるようにすることです。それから透明性、倫理的なガバナンスや社会的な信頼を促進する透明性です。それから持続可能性です。これはただ単にその大きな環境への影響、例えばエネルギーの消費が大きいという問題だけではなくって、独自のAIソリューションの持続可能性も確保しなくてはなりません。
このカンファレンスはこれまでの3カ国のAIシンポジウム、2018年、2020年、22年と開催されたシンポジウムが基盤となっています。2026年ももう予定していますので、皆さんのカレンダーに是非書いておいてください。このイベントは様々な貴重な対話と学びを提供しています。AIの急激な進化についての対話やアクションができます。また三国間の研究のコラボレーション、つまりドイツ、フランス、日本の研究協力の貢献をしてきたと思います。この3か国の協力は、あるいはパートナーシップは、まさにこの共通のAIの未来を形作るために不可欠です。それぞれ持っている強みと共通の価値観をベースとした未来を作ることができます。」
1.2 駐日ドイツ連邦共和国大使 ペトラ・ジグムント氏の挨拶
「皆様おはようございます。今年、ジェフリー・ヒントンに物理学ノーベル賞が授与されました。人口ニューロネットワークの研究が評価されたわけですが、これによって今のAIアプリケーションが様々に広がっています。そういった科学者の貢献のおかげで、AIというのはただのテクノロジーではなくなりました。私たちの仕事、生活、未来を形作る術となりました。
生成AIについては、急速に非常に重要な生活の一部となってきました。現実的な画像や文章の作成、医療の診断、自然な対話を作り出すこともできます。経済社会的な生成AIの影響というのは革命的な大きなものになりますが、同時に生成AIにはリスクもあります。これによって偽情報が広がる可能性もあり、間違った使え方をすれば、その民主主義制度や民主主義そのものの根幹が揺らぎます。さらにAIは非常にエネルギー消費が高く、CO2の排出量も高くなってしまうということで、気候目標の妨げになる可能性があります。
独日仏の3か国が共通の価値で繋がっています。そしてこの場に一堂に会して、急速に変わり行くその政治的な不確定要素の中で、同じ目的を持つ信頼できるパートナーが今まで以上に重要になっています。特にAIの分野ではそれは確かです。ですのでAIの開発において、また使用において、責任ある開発と使用が確実に行われなくてはなりません。透明性と説明責任を確保しなくてはなりません。AIが共通の利益に資するようにしていかなくてはなりません。
最後になりましたけれども、物理学者のヒントン博士がノーベル賞を受賞した後に言っていました。『私たちより賢いものの存在をこれまで経験したことがなかった。これはある意味とてもいいことですけれども、潜在的に悪影響が出る可能性もあります。つまり、コントロールできない状態になってしまったAIが非常に危険です。』その彼の言葉を1つの指針として、AIの潜在性について責任を持って、そして歓迎の心を持って見ていきたいと思います。このカンファレンスが成功することを祈念いたします。」
1.3 駐日フランス大使 フィリップ・セトン氏の挨拶
「この第4回独日仏AIカンファレンスを開いていただき、ありがとうございます。この集まりは、3カ国の協力が強いことの証しであり、前回のカンファレンスでのコミットメントの強さを示すものであります。共同声明を出し、今後もダイアログを進めようと、このAIの課題とチャンスについて進めていこうというコミットメントの強さの証しであります。
前回の会議以降、生成AIは大きな進化を遂げています。様々な進捗が見られ、新たなブレークスルーが次々と生まれ、産業に変化が生まれ、経済も変わり、そしてイノベーションのバウンダリーも広がっています。AIのプレゼンスは日々においても強まっています。
ここ2年ほど、フランスはAIの分野においても目覚ましい進化を遂げています。フランス2030投資計画のもと、技術的なイノベーションをフランスで押し進めようとしています。これにより、いくつかのパイオニア的なスタートアップも立ち上がりました。その結果として、オープンモデルな国際的な認識も頂戴しています。さらに5億ユーロが割り当てられ、生成AIやトラストワーシーなAIについての新たなAIクラスターが立ち上がっています。
競争により進歩が促進されている一方、協調も非常に大切です。特に非常に複雑で学際的なAIの分野などにおいてはそうでしょう。そして、ここで大切なことは多様な視点を担保し、専門家を様々な分野から様々な国から招いていくことだと思います。
フランス、日本、ドイツは一丸となって、共通のコミットメントのもと、変容的なポテンシャルをテクノロジーから引き出す一方で、本質的なプライバシーの自由、それから尊厳を守ってまいりたいと考えています。
最後になりましたが、ここでパリのAIアクションサミットについて触れておきたいと思います。2024年2月の10日と11日に開かれます。ここでもグローバルなリーダーが参集し、AIに関わるクリティカルなチャレンジ並びにチャンスについて議論をします。最高レベルでの国際協力を担保していくことになります。その会議は政策形成に役立ち、AIがかかる倫理的なスタンダードのもと、そしてまた社会のニーズに根ざした、つまり具体的な成長の糧となるよう進めていきたいと考えているところです。パリAIアクション会議は様々な議論や成果を期待しており、それにより今回の会議もまた2月の会議に向けて大きな貢献となるものと信じております。」
1.4 AI Japan会長 北野宏明氏の挨拶
「前回のシンポジウムは2022年の10月に行われました。その時、ChatGPTは2022年11月にリリースされました。つまり、シンポジウムを前回開催した時にはまだChatGPTは市場に出ていませんでした。技術が存在していること、ディフュージョンモデルもトランスフォーマーも、そして大手テック会社がこういったインタラクティブなハイリーコンペティティブなAIシステムを持っていることは理解していましたが、まだサービスとしてはリリースされていませんでした。
そこから劇的にChatGPTのリリースで変わりました。大手IT企業が今LLMのこの技術を持っており、GoogleのGemini、Microsoft、Metaがラマをリリースしたり、オープンモデルが開示されたり、様々なことが起きました。この24ヶ月、過去2年間で物事が劇的に変わりました。もう新たな世界になっています。
まだ2年しか経っていません。ディープラーニングは2012年でした。AlexNetが非常に能力の高いイメージ分類を見せてくれましたが、10年間でこの深層的なAIの戦いになりました。しかし、まだ生成AIは本当に世に出て2年です。
特に特徴的だと思うのが、この産業の進化という点です。産業進化というのは2段階だと思います。1つ目が蒸気工学、次が内燃エンジンです。今私たちはまだスチームエンジニアリング、蒸気機関の段階だと思うんですが、今後5年10年で車でいう内燃エンジンの時代に進むんではないかと思います。もしかしたらでも来月かもしれません。そんなに時間はかからないかもしれませんが、ただ認識すべきなのはまだ今この生成AIの初期段階にいるということです。
権力の集中は特に、つまり大手ITの『マグニフィセント7』に権力が集中するんではないかという不安があるかと思うんです。最も大型のモデルを持ち、非常に大きな研究開発予算を持っています。マグ7で計算しました時には、RDの会社の多くを占めていて、150%日本の民間企業を全部集めたものよりもそれだけ大きい規模を持っているという、その7社だけでこれが現実ではあるんです。
しかし同時に、イノベーションやブレークスルーがどこから出てくるのかを考えますと、ディフュージョンモデルはニューヨークシティでした。またトランスフォーマーはGoogleシリコンバレーから生まれました。ディープラーニングはトロントとモントリオールで、ノーベル物理学賞のホップフィールドとヒントンのペアラスモデル、ゲッツマンモデル、これがアーティフィシャルニューロンに対する最も効果的なアプローチでした。
世界中に分散しており、こういったイノベーションは世界中で起こっています。そしてGoogleは今ロンドン、イギリス拠点に活動が盛んです。実際のディスカバリーがどこで起きているのかを考えますと、それを行っている人たちが誰なのか、それは皆さん世界中に存在していると思います。つまり、確かに集中しているところがありますが、同時に分散もしています。どこで戦うのかというゲームプランを考えた時に、私たちが強みを持っているリアルワールド、製造業、ガストロノミーなどなど実世界のところでは私たちに強みがありますので、長期的にはそこをアドバンテージとして活用することでよりよい社会にし、非常にサステイナブルな形でAIが皆が使えるようになる。これは短期のゲームではありません。長期的なゲームとなります。」
2. パネリスト紹介
2.1 Dr. Yasuhiro Katagiri (座長)
東京大学で1991年に学位を取得後、NTTリサーチラボ、ATRメディアインフォメーションサイエンスラボでの研究経験を持つ。現在は函館大学の学長を務め、認知科学のフェローでもある。専門は社会言語学であり、AIと社会の関係性について深い知見を有している。
本カンファレンスでは座長として、各登壇者の発表における技術的な側面と社会的な影響の両面を結びつける役割を担っている。特に、AIの民主化というテーマについて、技術的な実現可能性と社会的な受容性の両面から議論を展開することに注力している。
「私からもこのカンファレンスの主催者の皆さんに感謝申し上げます。幅広い大きな生成AIというトピックを取り上げていただきました。今朝は生成AIの民主化というトピックのセッションです。非常に幅広い分野になりますけれども、もうすでに話がありましたように3人の発表者が3つの国を代表して発表をいただきます。それぞれ背景も違いますので、異なる視点から様々な見解が示されることと思います。」
2.2 Prof. Dr. Judith Simon (ハンブルグ大学)
ハンブルグ大学で情報技術倫理学の教授を務めており、デジタルテクノロジーのコンテキストにおける倫理的・社会的な問題、特にビッグデータや人工知能を専門としている。
ドイツ倫理議会のメンバーとして、AI倫理に関する報告書のスポークスマンを務めており、科学政策に関する助言を行う委員会で活動している。2018年から2019年にかけては連邦政府のデータ倫理委員を務め、AIの倫理的な課題について重要な提言を行ってきた。
また、「ルートレッジ・ハンドブック・オブ・トラスト・フィロソフィー」の編集者としても知られており、信頼性のあるAIシステムの構築に向けた理論的基盤の確立に貢献している。シモン教授は特に、生成AIにおけるバイアスの問題や説明可能性の課題について、倫理学的な観点から研究を進めており、本カンファレンスではこれらの知見を共有する。
本カンファレンスでは、2022年11月にドイツ倫理委員会に提出した報告書の内容を踏まえ、生成AIの信頼性と透明性に関する重要な洞察を提供する予定である。特に、AIシステムが社会に与える影響について、倫理的な観点からの分析を提示する。
2.3 Prof. Céline Hudelot (CentraleSupélec大学)
CentraleSupélec大学のコンピューターサイエンス教授であり、MICS研究所の所長を務めている。主な研究領域は、データ駆動型の知識とセマンティックな解釈、非構造化データの解釈であり、特に説明可能なAIの研究に注力している。
医療分野における基盤モデルの開発において、特筆すべき功績を残している。大手テクノロジー企業と共同で開発したDINOという総合的かつ公平な基盤モデルは、胸部X線画像の診断を行うことができる。このモデルはビジョントランスフォーマーモデルとして設計され、2カ国から収集した4つのオープンデータセットを用いてトレーニングを実施。さらに、7カ国の7つの施設から収集した11のデータセットでテストを行い、その汎用性と性能を実証している。
特に説明可能AIの研究においては、医療分野での実践的な応用に焦点を当てており、AIシステムがどのように判断を下したのかを医療従事者や患者に説明できる仕組みの構築に取り組んでいる。この研究は、AIの民主化において重要な要素となる透明性と説明可能性の実現に大きく貢献している。
医療分野の基盤モデル開発を通じて、AIシステムの実用化における重要な知見を蓄積しており、本カンファレンスではこれらの経験に基づいた実践的な視点からの提言を行う予定である。
2.4 Prof. Arisa Ema (東京大学)
東京大学の準教授であり、理化学研究所革新知能統合研究センターの研究員も務めている。過去のAIイベントにも多く参加し、科学技術社会論の研究者として主にAIの利点とリスクの研究を行っている。
日本政府のAI戦略において重要な役割を担っており、2023年に改定されたAI戦略会議の委員を務めている。この戦略会議では、AIの社会実装に向けた具体的な指針作りに貢献している。
国際的な活動としては、「仕事の未来」に関するGPAI(Global Partnership on Artificial Intelligence)のグローバルワーキンググループのメンバーとして活動している。さらに、国連事務総長のAIに関する諮問機関のメンバーとしても参画し、AIの社会実装における国際的な議論をリードしている。
特に、AIのガバナンスと社会実装における多様なステークホルダーの対話の重要性を強調しており、本カンファレンスでは昨年8月に立ち上げたグローバルAI対話イニシアチブの経験を共有する。このイニシアチブでは、AIに関するリスクと機会について、様々な国や文化的背景を持つ参加者との対話を通じて、より包括的なAIの発展を目指している。
3. 生成AIの民主化に関する基調講演
3.1 AIの信頼性と透明性 (Prof. Simon)
「先ほど通訳とお話したんですけれども私ちょっと早口なんですので、なるべくゆっくり話そうとしています。最初に申し上げておきますが、アブストラクトとタイトルを出したのがしばらく前のことです。これはトラストワージーな生成AIというテーマでありますが、それだけではなく先頃出した論文、このトラストワージーな生成AIがどういった意味合いを持つかということについて話をしていきたいと思います。
2022年11月にドイツの倫理委員会に提出した論文では、2つの理由で生成AIが重要な分野となっていることを指摘しました。第一に、生成AIは素晴らしい文章と品質な画像を作れるけれども、真実の裏付けがない。ただあまりにそのテキストも画像も最もらしいので広く使われてしまうということ。第二に、インターフェースがシンプルであり、技術的な要件に関してもスキルということに関しても特定の要件がない、学習曲線が不要であるということです。
数週間前にドイツの国立科学アカデミーから出した新たな論文では、生成AIの新たな課題について4つの重要な点を指摘しました:
第一に、バイアス修正の必要性と限界についてです。AIシステムは過去のデータに基づいて作られており、それをもとに予測を作っていくとすると、過去を将来に向けて投影することになります。これは保守主義的なものであり、不平等や不正義、ステレオタイプといったものが社会やデータに存在する場合、それもまた再現されてしまいます。
第二に、説明可能性の問題があります。画像認識ソフトウェアが犬と猫を区別する際、その判断プロセスを説明することは非常に難しい、もしくは不可能な場合があります。誰が何を理解する必要があるのか、AIシステムにおいてどんなことなら説明できるのか、そうすることでその影響を受けるユーザーにどのような意義が生まれるのかといったことを考える必要があります。
第三に、AIの欺瞞性についての4つの観点があります。まず、相手がAIなのか人間なのかが分かりにくいという問題。次に、AIの能力に関する誤解の問題。これは単なる統計であり単なるデータであるという話であったにしても、AIの特徴などに関する熱狂については少し身を引く必要があります。さらに、ディープフェイクなどの偽造コンテンツの問題。最後に、異なるタイプのシステムの融合による混乱の問題があります。
第四に、AIが重要インフラとなっていることです。AIは様々なシステムに埋め込まれるようになり、その重要性も高まっています。多くのドメインで依存するようになった一方で、独自システムにおいて理解もしくはコントロールができないものにも埋め込まれるようになりました。
結論として、生成AIならではの懸念もある一方で、一般的なAIの懸念も存在するということを強調したいと思います。AIの影響は均等ではなく、特に周縁化されている人々への影響の方が高いと考えられます。また、テクノロジーだけでなく、制度的・組織的な枠組みの条件を見ていくことも大切です。」
3.2 AI技術の開発と応用 (Prof. Hudelot)
「まずはAIの基本的な歴史から説明したいと思います。人工知能は1956年のダートマス会議で生まれた造語であり、タスクを機械に自動行させることを目的としていました。60年間、AIは様々な時代を経て、記号的表現に基づくシンボリックなAIアプローチも含まれ、機械学習的なアプローチも発展してきました。特に機械学習においては、コンピューターがデータから学ぶことができる深層学習が重要な進展となりました。
大規模言語モデル(LLM)は、人間のテキストを処理し生成できるように設計されたニューラルネットワークの一つです。大規模なデータで学習させており、入力の中の隠されたトークンを予測するようにモデルを学習させています。このモデルは、入力に対して次の単語の確率分布を出力し、1つずつテキストを生成していきます。
特筆すべきは、インコンテクストラーニングという能力です。これは学習が短い時間で可能になり、数例のデモンストレーションだけで新しいタスクを実行できるようになります。この能力こそが、AIの民主化への重要な技術的基盤となっています。
私たちのチームが開発したDINOという医療用の基盤モデルを例に挙げてみましょう。これは胸部のX線画像診断のための総合的な公平な基盤モデルで、ビジョントランスフォーマーモデルを採用しています。2カ国の4つのデータセットを使って学習を行い、7カ国7施設からの11のデータセットでテストしました。レポート生成、セグメンテーション、分類という3つの異なるタスクで評価し、既存モデルを大幅に上回る性能を示しました。
このような基盤モデルは、AIの民主化において重要な役割を果たします。稀な疾患に対する対応能力や新しい疾患の探索が可能となり、全ての人にとってのAIとなり得ます。ただし、ハルシネーションの影響やバイアスの問題、複雑なブラックボックスモデルであることなど、様々な課題も存在します。
さらに、現在は大規模なモデルが主流ですが、小規模モデルの可能性も探求すべきです。コンピューティング資源の消費が少なく、持続可能性が高いという利点があります。ただし、学習したことだけでなくバイアスも強く残る可能性があるため、用途に応じて適切なモデルサイズを選択することが重要です。」
3.3 AIのガバナンスと社会実装 (Prof. Ema)
「AIに関する議論のポイントとして、AIのリスクを二つに区別して考える必要があります。一つはAIによってもたらされるリスク、もう一つはAIを推進していく上での壁です。さらに、AIによってもたらされるリスクは、AIそのものによるリスクと、ICTそのものによって生じるリスクに分けられます。プライバシーやセキュリティ、著作権の侵害、名誉毀損のリスクなどの問題は、インターネットが登場して以来の課題であり、依然として解決されていません。AIの登場により、これらの問題の深刻度が増している部分もあります。
AI推進上の障壁としては、特に日本などにおいて様々な法的な枠組があり、もしくは社会的な枠組があって、そこに明確性が欠落している場合があります。例えば、EU AI法のような新たな規制枠組が必要なのか、それとも既存の法的枠組で対応すべきなのかという議論が政府で行われています。
この文脈で特に重要なのが、フレームワーク間の相互運用性です。この言葉はG7の広島サミットの後でよく出てくるようになりました。これまでは技術の標準化という意味で使われてきましたが、今日では各国のガバナンス枠組の透明性や相互関連性を指します。日本はビジネスガイドラインを内閣府が作成中で、欧州法やアメリカなども独自のAIガバナンス枠組を持っています。これらの間の整合性を確保しないと混乱を招きます。
また、AIのサプライチェーンは非常に長く、様々なアクターが関わっています。私たちの東大のワーキンググループでは、日本政府とこれについて協議していますが、AIを責任ある形で使用・開発していくためには、様々なステークホルダーの参加が必要です。特に、ユーザーとデベロッパーの間の情報の非対称性があるため、セーフガードが必要となります。
さらに、レッドチーミングの必要性も指摘したいと思います。これは純粋にセキュリティ上のレッドチームテストではなく、社会科学的な意味でのレッドチーミングを指します。日本の独特の文脈を勘案しつつ、ドイツやフランス、もしくは東南アジアなど、様々な価値体系を考慮する必要があります。
技術が社会に導入される前にその影響を予測することは難しい一方で、技術が普及すると制御が難しくなるというジレンマがあります。ChatGPTがこんなに早く広がっているということを考えますと、私たちはある意味実験社会に住んでいるのかもしれません。どういったテクノロジー上の仕組みがあって、それとどのようにマルチステークホルダー議論で関わっていけばいいのか、そうすることでどうやれば生成AIを民主化し、社会がより透明になり信頼性の高いものになるのかを考えていかなければいけないと思います。」
4. ディスカッション
4.1 AIの民主化における課題と機会
片桐:現状を見てどうお考えなのか、民主主義という観点から現状を見た時に、それぞれ異なる背景をお持ちの3人で国も違えば文化も違うので見方が違うかと思うんです。まずは、前向きな側面とマイナス面を民主化という観点でお聞かせください。
Hudelot:AIの大きな開発による利益として、非常に汎用のモデルがあり、様々なタスクに対応できる点が挙げられます。例えば、私たちのDINO基盤モデルは、疾患を診断できる大きなチャンスを生み出しています。一方で弱みとしては、現在のモデルの構成要素が少数しかないことです。企業がモデルを提供しても、学習に使用されているデータそのものがオープンソースでないことが多く、それを特定の重要な分野で採用することが困難になってきます。
Ema:学術研究者の視点から見ますと、AIガバナンスあるいはその公共性の認識から言いますと、市民が非常に積極的にこの議論に参加しているという点が良い点です。小学校の子供から高齢者までみんなAIの話をしている状態です。誰もが議論に参加できる、いろんな期待値やリスクについて議論ができることは、AI技術の民主化という点で重要です。マイナス面は、議論がとても多岐に渡りすぎていて多様性が高すぎるということです。結果的に社会的な分断が深まってしまう可能性もあります。
Simon:私も江間先生の意見に賛成です。AIが大変な注目を集めているのは良い点ですが、それは同時にマイナス面でもあります。20年前は倫理の話は些末な問題とされていましたが、今ではAI倫理が大きな問題となってきました。かつてAIは非常にリスクの高いコンテキスト、社会保障とか犯罪捜査とかで扱われ、多くの人の監視の目のもとにありました。しかし今は、あらゆるものの中に組み込まれ、これを避けることができません。人々がAIに責任を転嫁してしまう危険もあります。気候変動や貧困など、他の重要な社会問題とのバランスも考える必要があります。
4.2 国際競争力とイノベーション
片桐:日独仏は現在ナショナルプレイヤーの2軍的な存在ではないかと思うのですが、トップの7大企業に追いつくには何が必要だと思いますか?それから、どんなことをこの3ヶ国がどんな部分に注力していけば競争力をより高めていくことができるでしょうか?
Simon:それぞれの国が戦略を持っていますが、独自のシステムを推進しようとする現在の戦略は最善ではないと考えています。私の見解では、オープンソースモデルでBloomのような形の方が望ましいと思います。システムとして全ての企業がマルチ言語・汎用的なモデルを作って、他の国々がそれを元に積み上げていけるような形の方が良いでしょう。ローカルで国独自のシステムを作るよりも、ジョイントな多言語モデルにヨーロッパで投資をしていき、それを土台として他のサービスを上乗せしていく戦略が必要だと思います。
Hudelot:私も同意見です。別のスキームを開発して一つの売りとしているより、小さいモデルを専門の言語あるいは用途に特化するのが良いと思います。実際、フランスでは少数のチームですが、フランス語モデルを使ってフランスの文化に特化したモデルを構築しています。大手企業でなくてもそういった点で競争力を得ることができます。また、持続可能性の観点から、小規模モデルをスマートデバイスで実行できるようにすれば、ユーザーが自分で小規模モデルを使って実行することが可能になります。
Ema:私もこの分野の専門家ではありませんが、興味深い動きとして、理化学研究所のAIPセンターの研究者が小さいデータセットでLLMを構築できないかと研究しています。これは巨大なデータセットを持つモデルとの競合になります。また、北野先生も指摘されましたが、日本はかつて知能を持ったマシンの概念のモデル化には強みがありました。現在の深層学習では巨大なデータが必要ですが、そうではない違う方向を目指すことも可能です。時間はかかるかもしれませんが、モデルの多様性は非常に重要です。今のマグニフィセント7が作っているAIモデルと違うモデルを作る可能性があり、ChatGPTはまだ生まれてから2-3年ですから、全く違うモデルが5年後、6年後に出てくるかもしれません。
4.3 規制とイノベーションのバランス
片桐:政策立案者はイノベーションの促進とAIの規制のバランスをどのように取るべきでしょうか?
Ema:私自身、政府のAI戦略委員会の内閣府の戦略会議のメンバーとして参加していますが、そこではイノベーションの話と同時に規制の枠組みの話も出ています。このような議論は両面的に進んでおり、ヨーロッパもアメリカも同様にガバナンスの議論を進めています。日本だけが革新をするのではなく、AIシステムやAIサービスはもうすでにグローバル化していますから、全ての人々がAIのガバナンスや規制の仕方についてそのグローバル市場の中で議論していく必要があります。難しいことですが、少なくともイノベーションとガバナンス、もしくは規制枠組みのバランスは、各政府が目指していると思います。
Simon:ヨーロッパではAI法があり、私たちのAIの開発の仕方を対象にしています。例えば、個人データの使用方法についての説明が必要とされ、これによって今後のAI開発の方向性が決まってきます。私自身は、イノベーションを阻害する可能性がある規制ではなく、促進するような規則を望んでいます。
Hudelot:クリティカルインフラの中にシステムが組み込まれていて、それが事前に適切に機能することを確認しなくてはなりません。事後対策ではコストが余計にかかります。EU AI法の中でも誰が責任を持って何をチェックするのか、展開する人なのか開発する人なのか、細かく記載があります。小企業が例えばAIを自社の製品やサービスに組み込んだ時に、適切に開発した人がテストしなければなりません。それが法律によって定められなければ、最終的に大きなコストがかかります。データのコストや信頼性は全てコストに換算できます。これを大手企業に対しても義務化する必要があり、さもなければ下流の企業がシステムの影響を受ける可能性があります。これは必要性があってやることで、信頼できる形でいろんなシステムに組み込まれた時に機能することを担保するものです。
4.4 AI教育と啓発の重要性
片桐:先週の会議でも、教授や日本の大学の先生方が集まって、教育者としてどれだけAIの将来について知っておく必要があるかということが議題として上がりました。この民主的なアクセスを担保するには何が必要なのでしょうか?特に、AIを使ったことがない先生方も多かったので、皆様のお考えをお聞かせください。
Simon:これは私たちが取り組まなければならない重要な課題です。子供たちもしくは先生たちを啓蒙していくことが大切です。コンピューターサイエンスにはいろんなテクノロジーが生まれていますが、使う側に教育を行っていくことも大切だと思います。もちろん倫理については学んでいく必要がありますが、それだけではなく、皆が基本的な理解、確率性、統計ということについて知っておく必要があります。メリットとデメリットが様々なシステムにあり、この確率性がどのような仕組みで動くのかというのを理解しておくことが非常に重要です。深く理解する必要はなかったとしても、確率論について基本中の基本は抑えておくべきです。
Ema:Simon先生の意見に賛成です。もう一つの側面から加えるとするなら、私たちが必要なのは人々が学べるようにしていくことだと思います。つまり、どうやったら人々がAIに対してインセンティブ化されるかということです。AIの仕組みやその倫理の問題について学びたいと思うかどうかという話です。
ただ、企業の方々も先生方も忙しいですよね。私も東大で教師をしていますが、最新のテクノロジーや法的な枠組みに遅れないようにしていくだけでもアップアップです。そうである以上、一般の方々が忙しい日常の中で時間を確保するのは難しいでしょう。なので、どうやったら人々がインセンティブを感じて学ぼうとするのか、そして時間がひねり出せるのかを考えていくべきです。また、彼らの学びを支援するような環境も非常に大切になってくるでしょう。
Hudelot:持続可能性という観点から言いますと、人々がアンテナを高くしてエコロジー上の問題について認識できるようにする、そういったイネーブル的な要素が大切だということです。社会が問題について知り、AIのリスクについて分かるようにイニシアチブを進めていかなければなりません。
5. 研究事例と知見
5.1 医療分野での基盤モデル開発事例(Prof. Hudelot)
私たちのチームが大手テクノロジー企業のMetaと共同で開発したDINOは、総合的かつ公平な基盤モデルとなっています。胸部のX線画像診断を主な応用分野としており、このモデルはLLMではなく、ビジョントランスフォーマーモデルを採用しています。
開発プロセスでは、よく知られているマスキング手法などを使ってトレーニングを行いました。特筆すべきは、オープンな医療データを使用していることで、2カ国から4つのデータセットを収集し、アノテーションデータではない公正な患者中心のデータとしています。
モデルの評価は非常に包括的に行いました。7カ国7つの施設から収集した11の異なるデータセットを使用してテストを実施しています。評価は3つの異なるタスクで行いました:レポート生成、セグメンテーション、分類です。まず総合的な分析として放射線診断の精度を評価し、次に人口統計や年齢に対するバイアスの有無、そして疾患に対する汎用化能力をテストしました。
テスト結果は非常に興味深いものでした。このモデルのパフォーマンスは既存のモデルを大幅に上回り、特に基盤モデルとしてのDINOは、AIの民主化の好例となっています。なぜなら、一連のタスクに向けた統合的なアプローチを提供でき、稀な疾患に対する対応能力も持ち合わせているからです。
また、ドメイン外でも優れたパフォーマンスを発揮することができ、新しい疾患について試験したり探索したりする能力も示しています。このモデルの特徴は、一切の修正やパラメーターの特殊化を行わずに様々な医療機関のデータセットに適用できる点です。これは、AIの民主化において重要な要素となる「全ての人のためのAI」という概念を体現しています。
さらに、公平性の分析も実施し、様々なアプリケーションにおいて構成的であるかどうかを全てのモデルについて評価しています。これにより、医療分野における信頼性の高いAIシステムの構築に向けた重要な知見を得ることができました。
5.2 グローバルAI対話イニシアチブ(Prof. Ema)
昨年8月、私はドイツの同僚とともに「グローバルAI対話」というイニシアチブを立ち上げました。このイニシアチブでは、AIについて同じ枠組みを用いてリスクについて議論を行いました。具体的には、どんなリスクがあり、メリットがあるのか、誰がステークホルダーなのかを特定し、それらをバックキャストする形で状況を把握していきました。
この取り組みは、ナイジェリアでも同じフレームワークを使って実施し、日本でも同様の対話を行いました。インド、メキシコ、カナダ、アメリカなども加わり、グローバルな展開となっています。
特に重要なのは、パブリックビューを持つことです。これまでのマルチステークホルダーの議論では、政府、業界、アカデミア、NPOという三者、四者の対話が中心でしたが、民主化という観点では、メインのユーザーである一般市民の意見が必要となってきます。私たちのイニシアチブでは、一般社会に向けて情報を発信するだけではなく、彼らの視点も取り入れていく必要があると考えています。
昨日行ったばかりのイベントでも、バイアス問題やステレオタイプの問題などを取り上げ、これらをコンテキスト的な、もしくは国ごとの観点から見ていきました。多様性が必要であり、コンテクストも必要で、どんなバイアスがあるのかも理解する必要があります。
現在、大規模言語モデルはバイアスの予防に関して努力していますが、法律家や人権に関係する人々に聞くと、日本独特のバイアスがあり、その詳細を理解するには5人程度の人々が関わる必要があるそうです。このような文化的コンテキストを考慮したレッドチーミング的なテストが必要だと考えています。これは単なるセキュリティ上のテストではなく、社会科学的な意味でのレッドチーミングを指しています。
日本の独特の文脈を勘案しつつ、ドイツやフランス、もしくは東南アジアなど、様々な価値体系を考慮していく必要があります。価値体系は一つに限らず、正解が一つということもありません。私たちは、コンテキストとドメインもしくは現場の詳細を見ていく必要があるのではないかと考えています。
5.3 バイアス修正と説明可能性の研究(Prof. Simon)
私たちの研究では、バイアス修正と説明可能性について、特に重要な知見が得られました。まず、バイアス修正に関して、AIは過去のデータに基づいて作られているため、それをもとに予測を行うと、過去を将来に向けて投影することになります。これは本質的に保守主義的な性質を持っており、社会に存在する不平等や不正義、ステレオタイプといった問題も同時に再現されてしまいます。
例えば、最近のGeminiの事例で見られたように、偏見への対策を過剰に行うことで、別の問題が生じる可能性があります。歴史的な出来事を描写する際に、事実と異なる表現をしてしまうケースがありました。このことから、バイアスの修正はコンテキストに依存するものであり、一般的なパターンとして適用できるものではないことが分かります。
説明可能性に関しては、私たちは共同研究を通じて、説明の必要性と可能性の間にある根本的な課題を明らかにしました。例えば、画像認識システムが犬と猫を区別する際の判断プロセスを説明することは、技術的に非常に困難であり、場合によっては不可能です。重要なのは、誰が何を理解する必要があるのか、AIシステムにおいてどんなことなら説明できるのか、そしてその説明がユーザーにとってどのような意義を持つのかを考えることです。
倫理的考慮事項の実装については、医学の倫理と同様のアプローチを取る必要があります。開発者や設計者は、システムが技術的・科学的な意味だけでなく、モラルの観点からも十分に堅牢であることを担保する必要があります。時として、設計者の意図とは異なる倫理的問題が使用過程で発生することもありますが、これは社会規範との相互作用によって生じる場合が多いのです。このため、良き設計と良きテクノロジーの定義を明確にし、それに反するものとの区別を付けていくことが、この問題に対処していく上で重要になります。