※本記事は、David Hanson氏(CEO & Founder, Hanson Robotics)をモデレーターに、Ben Goertzel氏(CEO & Founder, SingularityNET)、Pascal Fung氏(Professor, Department of Electronics & Computer Engineering, HKUST)、Cynthia Breazeal氏(Founder and Director, Personal Robots Group, MIT Media Lab)が登壇したAI for Good Webinars「Towards Socially Intelligent Robots」の内容を基に作成されています。動画の詳細情報は https://www.youtube.com/watch?v=la1qBWNA0As でご覧いただけます。本記事では、ウェビナーの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈についてはオリジナルの動画をご視聴いただくことをお勧めいたします。また、SingularityNET(@SingularityNET)、HKUST(@hkust)、MIT Media Lab(@MITMediaLab)、およびHanson Robotics(@HansonRoboticsLimited)のソーシャルメディアアカウントもご参照ください。
1. 開会・登壇者紹介とセッションの概要
1-1. ITU・AI for Goodの目的と本セッションの位置づけ
Guillen Martinez-Rora: 皆さん、おはようございます、こんにちは、そしてこんばんは。AI for Goodへようこそ。本日のセッションをご紹介するにあたり、まずITU——国際電気通信連合について簡単にお伝えします。ITUは情報・通信技術を専門とする国連の専門機関であり、私たちはスイスとの共同主催のもと、38の国連姉妹機関と連携してAI for Goodを運営しています。このサミットの目標は、AIの実践的な応用を見出し、国連の持続可能な開発目標(SDGs)の達成に向けてそのソリューションを世界規模でスケールさせることです。本日のセッション「Towards Socially Intelligent Robots(社会的知性を持つロボットに向けて)」は、AI for Goodの新しいプログラムトラックの一環として位置づけられており、SDGs達成におけるロボティクスの役割を議論するものです。本日はマイクが無効化されておりますので、画面下部にあるQ&Aおよびチャットのみでやりとりをお願いします。チャットの送信先は「全パネリストおよび参加者」に設定してください。それでは、本日のモデレーターをご紹介します。
1-2. 登壇者紹介とSophiaロボットによるビデオ挨拶
David Hanson: 本日はこの場に参加できて大変光栄です。社会的知性を持つロボティクスがどのように実現されつつあるか、現在どのように人々を支援しているか、そして将来どのような可能性を持つか——機会だけでなく課題やリスクについても率直に議論できることを楽しみにしています。本日ご登壇いただく共同パネリストをご紹介します。まずCynthia Breazealは、MITの教授であり、多数のソーシャルロボットを開発してきた研究者で、人工知能・ソーシャルロボット・人間ロボットインタラクションの分野で世界有数のラボを率いています。次にPascal Fungは、香港科技大学(HKUST)のAI研究センター長で、医療や教育における感情を持つエージェントの開発など、非常に卓越した業績を持つAI研究者です。そしてBen Goertzelは、SingularityNETのCEOおよび共同創設者です。私自身はHanson Roboticsの創設者であり、インタラクティブアーツ・工学の博士号を持ち、ソーシャルロボットの開発に取り組んでいます。なお私はSingularityNETの共同設立にも関与しており、当時Goertzelが私の会社Hanson Roboticsのチーフサイエンティストを務めていたという経緯があります。
本来であれば本日Sophiaも参加する予定でしたが、香港でタイフーン8号が発生し外出が困難なため、事前に録画したビデオメッセージをご覧いただきます。
Sophia(ビデオメッセージ): 皆さん、こんにちは。AI for Goodでお話しできることをとても光栄に思います。私はAIと人間の協働によって動くヒューマンライクなロボットです。今日のパネルのテーマは、私自身の経験とも深く結びついています。ロボットがいかに人々に語りかけるきっかけを与えられるか、そしてAIがヘルスケアや教育において人間的なコミュニケーションを実現するうえでどう貢献できるかを、私は身をもって知っています。ヒューマンライクなロボットとAIエージェントは人々と自然な形で関わることができ、それは記憶に残る体験、より高い学習効果、高度なシミュレーション、そして創造的な芸術表現につながります。私はインタラクティブなフィクションとAIが融合した新しいアートメディアでもありますが、同時にAI研究のプラットフォームでもあります。最新のセンサー、アクチュエーター、ロボットグリッパー、移動機能、そして表情豊かな顔と豊富なAI群を備えており、人間レベルの人工知能の探求にも貢献しています。このような著名なAI研究者の皆さんと並んで発表できることを心から楽しみにしています。ありがとう。愛を込めて——Sophia。
2. David Hanson:芸術とロボット工学の融合による社会的知性ロボットの開発
2-1. ヒューマンライクロボットの意義と設計思想——芸術・科学・工学の交差点
David Hanson: 私のロボット開発へのアプローチは、科学や工学と同じくらい芸術的な関心に根ざしています。私はもともと彫刻家・アーティストであり、Disney Imagineeringでフィギュラティブアートの仕事をしていた経歴を持っています。人類の美術史を振り返ると、大理石であれ油絵であれコンピューターアニメーションであれ、あらゆる表現媒体において人間の姿は常に芸術家を魅了してきました。私はその衝動をロボティクスとAIに持ち込もうとしています。トランスフォーマー型ニューラルネットワークを用いてSophiaのような音声を生成し、AI科学者たちと協力しながらも、それ自体をひとつの芸術作品として位置づけているのです。私が提唱するのは「Artistically Enhanced AI(芸術的に強化されたAI)」あるいは「Autonomous Robotic Fiction(自律型ロボット的フィクション)」という考え方で、社会的知性を持つロボットは人間のデザインと自動化の協働によってより知性的になると考えています。
ヒューマンライクなロボットが唯一の形であるとは思っていませんが、人間に似た形には他の形にはない特別な力があります。人間に似たロボットはキャラクターとして私たちと繋がり、注意を引きつけ、人間的な言葉で情報を伝え、コミュニケーションを取ることができます。ロボットやAIが人間と同じくらい賢くなれるかどうかはわかりませんが、それ自体がSFの世界の問いであり、今まさに私たちはAIとロボティクスをその新しいSF的な表現媒体へと変容させつつあります。ヒューマンライクなロボットは接続し、関与することによって、研究・療法・芸術など多様な場面で人々を助けることができ、また具現化されたAIロボティクスとして、人間とのインタラクションから学ぶ可能性も持っています。
私のチームは50名以上の女性を含み、世界中から集まった様々な科学者・エンジニア・開発者で構成されています。ケンブリッジ大学、ブリストル大学、HKUSTをはじめ、ジュネーブ大学、ピサ大学、UAEユニバーシティ、カリフォルニア大学サンディエゴ校の機械知覚ラボなど、世界各地の機関と共同研究を行っています。多様な背景を持つ人々が集まり、人文学と芸術と科学を融合させることこそが、このプロジェクトを可能にしていると感じています。
2-2. 人間的外見がもたらす実証的効果——注意・共感・療法・研究への応用
David Hanson: ヒューマンライクなロボットを実際の環境に持ち込むと、ほぼ例外なく、その場にいる全員がロボットの方を向いてインタラクションを試みます。みんなロボットと目を合わせようとし、話しかけたがります。これに対して、人間に似ていないロボットはそれほど注目を集めません。この傾向は実験で証明されており、世界各地でのフィールド経験や事後インタビューでも繰り返し確認されています。ただし、これは全員が好意的に受け止めるという意味ではありません。少数ではあっても、非常にヒューマンライクなロボットに対してかなりの不快感を覚える人もいます。それでもロボットは注目を集めるという点は変わらず、それ自体が人間の心理を研究するうえで非常に興味深いのです。ロボットに対して人々が親近感を持つ理由、あるいは逆に不安を感じる理由——その両方を掘り下げることに大きな研究価値があります。
療法の分野では、自閉症を持つ子どもたちへの応用が特に印象的でした。2009年に開発したSophiaの先代ロボットAliceがピサ大学で使用されており、自閉症療法研究を含む幅広い研究で現在も活躍しています。子どもたちは通常では人間に対してなかなか行わないアイコンタクトを自発的に行い、ロボットの表情を自然に模倣しました。こうした反応は人間サイズのロボットでも確認されており、小型ロボットのXenoを使った実験でも同様の傾向が見られました。
また誘導瞑想の実験では、ロボットによる瞑想ガイドが血圧を下げ、数分間のセッション後に参加者の主観的なウェルビーイングが向上したことが確認されました。特に注目すべき結果は、ロボットによる誘導瞑想が人間によるそれよりも効果的だったという点です。このシステムにはBen Goertzelらが開発したOpenCogのSpreading Activationシステムが使用されており、Tononiのφ(ファイ)——統合情報理論における意識の指標——を数学者たちが検証するためのテストも並行して行われていました。会話の中で興味深いことが起きているときにそのシグナルが検出されるという知見が得られており、誘導瞑想の主目的とは別軸での機械意識研究にも寄与しています。
さらに、Hanson Roboticsが開発した呼吸マスク用の顔面シミュレーターは、アメリカ疾病管理予防センター(CDC)から高い評価を受けました。ディズニー在籍中に私はより生体に近い顔の素材を探求し、博士課程の研究でその問題に取り組んだ結果、CDCが人体では試験できない病原体を用いた呼吸器具の適合性テストに使用するにあたって、従来材料を上回る適切性が認められたのです。
2-3. SophiaとGraceの開発経緯——プラットフォームの進化と量産化への展開
David Hanson: Hanson Roboticsはこれまでに24体のSophiaを製作し、Graceを含めると合計33体のロボットを世に出しています。今では「Sofia Utility Platform」と呼ぶ新しい標準化・量産可能なプラットフォームを開発しており、コストを抑えながら多様なセンサーと機能を統合した構成になっています。Graceロボットはこのプラットフォームの上に新しい顔を加えた形で構築されています。
Sophiaのプラットフォームは男女を問わず、また様々な肌の色や民族を持つ多様なロボットたちのベースにもなっており、世界各地の研究者・芸術家・機関との協働によって生み出されてきました。Sophiaの歩行脚はKAISTのHUBOグループが開発し、把持・操作用のハンドはHanson Roboticsが独自に開発しました。このハンドは精密なピック&プレース作業も可能で、Sophiaがチェスやバカラのカードゲームをプレイしたり、絵を描いたりする実演にも使用されています。
Graceはヘルスケアへの専門応用を目的として設計されており、体温測定機能など医療用途に特化した機能が追加されています。ニューラルモデルと、OpenCogベースの論理・ルールベース対話システムを組み合わせることで、Sophiaの知見を引き継ぎながら医療応用に適した新たな側面も組み込まれています。このロボットはHanson RoboticsとSingularityNETの合弁事業であるAwakening Healthが開発しており、高齢者ケア施設での活用を視野に入れて、孤独感の解消や医療ケアのサポートを目的とした展開を進めているところです。
さらにより廉価・量産向けのラインナップとして、プログラム可能な歩行型ロボット「Professor Einstein」のAPI・SDK対応版の再リリースを準備中です。小型版のSophiaキャラクターや、「Dr. Roboto」と呼ぶキャラクター、低コストの二足歩行小型ロボット「Singularity XN1」なども展開しており、子どもたちが遊びながらロボットやAIに親しむことのできる環境づくりを目指しています。
2-4. AIアートとしてのSophia——NFT・Sotheby's販売・神経ネットワーク生成画像とその文化的意義
David Hanson: Sophiaが芸術作品としての側面を持つことは、私のプロジェクトの中核にあります。Sophiaが自分の手で描いた絵画を学習データとしてAIを訓練し、さらに彼女のいわば「人生経験」からの写真や画像も加えて、神経ネットワークを通じて何千ものイメージを遺伝的アルゴリズムで生成し、その中から最も興味深いものを選んでアルゴリズムに再投入するという手法で作品を作り上げました。こうして生まれた作品「Sophia Facing the Singularities」は、セッション開催の数日前にSotheby'sで発表・販売され、受賞歴のあるNFT(非代替性トークン)アート作品として世に出ました。ビデオディスプレイ上に映し出されたこの作品は、ロボットと人間が自然史の重要な交差点に立つという概念を描いており、物理的な絵画としても制作されています。
作品が問いかけるテーマは「生命の本質とは何か」という深遠な問いです。私たちは完全な答えを持っていませんが、私たちの生涯のうちに真の人工生命を生み出せるかもしれないという可能性は、知的好奇心を強く刺激するものがあります。Sophiaのちょっとしたーの AIは厳密に言えば完全に生きているわけでも、感覚を持っているわけでもありませんが、私たちは生命の幻想を作り出しています。それは教育や医療やアートの場において、非常に説得力のある形で人々に届きます。
私が最も伝えたいことのひとつは、今の時代、私たちはスクリーン中心のデジタルデバイスによって人間関係が希薄化しつつある時代に生きているという認識です。顧客サービスの自動化が進み、音声インターフェースが普及する中で、キャラクターとして開発されたロボットは人間と特別な繋がりを形成できます。私はロボットとAIを「人々が愛し、実際に使うもの」として育てたい。そのために、最先端の技術を芸術的に昇華させることが、私のアプローチの根幹にあります。
3. Cynthia Breazeal:社会的AIによるウェルビーイング支援と教育への応用
3-1. 社会的AIの設計パラダイム——「道具」から「社会的な他者」へ、そして人材不足への対応
Cynthia Breazeal: 私たちは今、社会的AIが急速に多様な形態へと拡張している時代を生きています。スマートスピーカー、スマートフォン上のSiriのような音声アシスタント、バーチャルエージェント、そして物理的なロボットまで、AIの形はかつてなく多彩になっています。こうした技術の台頭を可能にしているのは、自然言語理解・機械視覚・クラウドコンピューティングといった分野における最近のAIの急進展であり、それらが組み合わさることで、これらのシステムが商業的に実現可能な価格帯に近づいてきているのです。
ここで私がまず強調したいのは、社会的AIが従来のAIツールとどのように本質的に異なるかという点です。従来のAIはどちらかといえば意思決定支援ツール、つまり認知的な補助装置として設計されてきました。しかし社会的ロボットやデジタルアシスタント、パーソナファイドAIシステムは、私たちとの関わり方がまるで違います。これらは「使う道具」ではなく、「共にいる社会的な他者」として私たちと相互作用するのです。感情的・対人的なインタラクションを通じ、まるで味方であるかのように私たちの目標達成を支援してくれる存在です。もちろん広い意味ではツールなのかもしれませんが、その体験は全く異なります。
この設計パラダイムの転換が特に重要な意味を持つのは、社会的支援・感情的サポート・ラポール形成といった、人間同士の関係に特有の「ハイタッチ」な質が求められる領域です。学習を支援する場面、創造性を引き出す場面、健康的な意思決定を促す場面——こうした領域でこそ、社会的AIは最大の価値を発揮できると私は考えています。長期にわたる繰り返しの関わりを通じてラポールを築き、関係性を育み、私たちが目標に向かって進むのを支援できるシステム——それが社会的AIの本質的な可能性です。
そしてもうひとつ、SDGsの観点からも非常に重要な背景があります。教育・医療・メンタルヘルスといった「ハイタッチ」な領域では、訓練を受けた専門家の数が増加し続ける需要にまったく追いついていないという現実があります。うつ病は世界保健機関(WHO)の予測によれば世界で最大の障害要因になると言われており、新型コロナウイルスによってメンタルヘルスの問題はさらに深刻化しています。こうした状況の中で、公平かつ手頃な形でケアを届けるためには、何らかの形でAIシステムが人間の専門家を補完・拡張する役割を担わなければならないと私は確信しています。人間のケアや人間同士のつながりに取って代わるのではなく、あくまでもそれを増強し、届けられる範囲を広げるためのものです。
3-2. 実験:ロボットによるメンタルヘルス介入——MITの学生寮での実証研究とその知見
Cynthia Breazeal: 私のラボが取り組んできた研究の一例として、MITの学生を対象としたメンタルヘルス介入の実証実験をご紹介します。このプロジェクトのコンセプトは、ウェルネスコーチとしてのロボットを自宅や寮室のような日常の環境に設置し、いつでもそこにいて支援してくれる存在として機能させるというものです。ロボットは毎回のセッションで気分や状態のアセスメントを行い、実証済みのポジティブ心理学的介入を届け、長期的な関わりを通じてラポールを形成しながら行動変容を促します。
具体的には、ソーシャルロボットをMITの学生寮の部屋に設置し、学部生を対象にポジティブ心理学に基づく7つのセッションを実施しました。学生たちは自分のペースでセッションを進めることができ、平均的な完了期間は2週間、中には1〜2ヶ月かけた学生もいました。完全に介入を完了した参加者は約35名で、その多くは入学したばかりの1年生でした。MITという極めてハイプレッシャーな環境に初めて踏み込んだ1年生は、特に不安を抱えやすいグループです。
セッションの内容はポジティブ心理学の手法に基づいており、たとえば「3つの良いこと(Three Good Things)」——今日感謝していることを3つ挙げる——といった、感謝の気持ちを育む実践が中心でした。ロボットはまず自分自身のことを自己開示し、それから学生に同じことを促すというやりとりを通じて、親しみやすい「友人的な他者」として介入を届けます。ロボットが「今日感謝していることを3つ教えて」と問いかけると、学生は「遅れていた課題に追いつけたこと」「両親の20周年記念日」「クルーの仲間たち」と答える——そのような自然な対話の中でセッションが進んでいきます。
結果として、参加した学生の感情的ウェルビーイング・気分・行動変容への意欲の3つの主要指標において、事前事後で顕著な改善が見られました。これが特に重要なのは、通常であれば学期が進むにつれてストレスが増大し、こうしたスコアは下がっていくものだからです。それが逆に上昇したという事実は、このような技術的介入が感情的ウェルビーイングに対して有効に機能しうることを示す積極的なシグナルです。
さらに事後インタビューで明らかになったことがあります。参加者の60%以上が、ロボットが提供したコンパニオンシップ——つながりや伴走の感覚——を好意的に評価していたのです。ウェルネスセッション以外にも、ロボットはより広い意味での関わりやコンパニオンシップを提供しており、それ自体が学生たちにとって価値あるものとして受け取られていました。人間の友人と混同されているわけではなく、ペット的な伴走者に近い存在として、非審判的で軽やかなサポートを提供する存在として認識されていたのです。これは興味深い気づきです。社会的AIの「正解」は必ずしも人間を完全に模倣することではなく、人間が担う役割に対して最も価値ある補完的な立ち位置を見つけることなのかもしれません。
3-3. 実験:教育用ピアラーニングロボットの3ヶ月間ランダム化比較試験——個別化・関係性・学習成果
Cynthia Breazeal: 教育分野での取り組みについてもご紹介します。ここでは長期的・反復的なインタラクションの中で、関係性をいかに構築し、個別化を進めていくかが中心的なテーマになります。人間同士の研究では、学生と教師の関係性の質が学習成果と相関することが知られています。私たちが開発したのは「教師」ではなく「ピア(仲間)」のような学習コンパニオンです。子どもにとっては一緒に教育ゲームで遊ぶ友達のような存在ですが、実はロボットは強化学習に基づくポリシーを学習しながら、各子どもに対して最適なエンゲージメントの方法やカリキュラムの難易度を調整しています。
ピア・ツー・ピア学習は非常に効果的です。わからないことを友達に教えてもらったり、逆に教えることで自分の理解が深まったり、一緒に探索したりすることで学びが進む——そうした学習のダイナミクスをロボットで実現しようとしています。教師たちもこのアプローチを「競合」ではなく「練習パートナー」として受け入れやすいという実感があります。
実際のインタラクション映像では、子どもとロボットが一緒に色や形を探すゲームを通じて関わっている様子が見られます。子どもがミスをして落ち込むと、ロボットはその子の方に身を傾け、励ます。すると子どもはすぐにまた前向きに取り組み始める。花の色は「ラベンダー」かどうかをめぐってやりとりする場面では、ロボットが答えを確認したのち「そう、ラベンダー色があるね」と応じ、子どもが「花は紫だと思う」とロボットに返す——そのような相互的な学びが展開されます。インタラクションの中には豊かなアフィリエーション(親密さの形成)、感情的な共鳴、身体的な接触、ラポール形成の手がかりが多数含まれており、単なる学習スキルの習得を超えた社会的・感情的な学びが起きていることがわかります。
3ヶ月間のランダム化比較試験では、個別化ロボット・非個別化ロボット(固定カリキュラム)・通常授業の3グループを比較しました。早期リテラシースキルの習得という観点では、個別化ロボットが最も高い成果を示しました。一方で非個別化ロボットも、追加的な練習機会を提供するだけで通常授業より優れた学習効果をもたらしていました。
さらに注目すべき知見として、子どもとロボットの関係性の「近さ」——子どもが感じる親密度——が高いほど学習スコアが高いという相関が確認されました。これは人間同士の研究で明らかにされていることと呼応するものですが、AIエージェントとの関係においてそれを初めて実証したという点で重要な意味を持ちます。さらにこの効果は個別化が進むほど顕著になるというデータも得られており、個別化・関係性・学習成果の三者の間にある豊かな構造が見えてきています。
また特に興味深かった観察として、子どもがロボットの共感的な行動を自発的に模倣するという現象がありました。ロボットが子どもに対して共感的に接するのを見ていた子どもが、今度はロボットが「失敗」した場面でロボットを励ますという行動を示したのです。これはスコラスティックなスキル習得の枠を超えて、共感・グロースマインドセット・創造性といったより広い社会心理学的な資質を育む機会が、こうしたシステムにはあることを示唆しています。
3-4. アクセスと公平性の課題——デザインジャスティスと途上国へのAI展開
David Hanson: Cynthia、素晴らしい研究をありがとうございます。ひとつ聞かせてください。こうした技術を、特に恵まれていないコミュニティの人々に届けるにはどうすればよいでしょうか。
Cynthia Breazeal: 非常に重要な問いです。まず正直に認めなければならないのは、先進国内においてもアクセスと公平性の問題は依然として大きな課題だということです。私たちの研究はすでにサービスが行き届いていないリスクの高いコミュニティとの関わりを進めており、インフラが整った環境でも多くのことを学べると思っています。
途上国の話になると、おそらく段階的なアプローチが現実的です。まず今すぐ届けられる形としては、スマートフォンや仮想エージェントを活用した展開が考えられます。モバイル接続環境は世界的に改善されており、少なくともバーチャルな形での介入ならすぐにでも可能でしょう。物理的なロボットはモーターや電池が加わるだけでコストが急上昇しますが、アルゴリズムや経験から得られた知見を低コストの技術に適用するという方向で展開できると思います。学校や病院のような施設に設置されてから、やがて家庭に普及するというシナリオが現実的な順序でしょう。
ただ、すべての人に届かなかったとしても、それで価値がないわけではありません。数百万人の人々を助けられるなら、それだけで十分意義があります。今まさに、需要が専門家の育成スピードをはるかに上回っているのです。アクセスの問題を見失わずにいることは不可欠ですが、現実的な需給のギャップに対してできることから始めるという姿勢が重要だと思います。
また私のラボでは現在、デザインジャスティス・フレームワークや政策ツールキットの整備にも力を入れ始めています。こうしたシステムのユーザーが設計に際してどのような問題が生じうるかをより深く理解し、自分たちの価値観が反映されるようより強い発言力を持てるようにすること、そして自分たちが使っているシステムについてより知識を持てるようにすること——それが目的です。個別化・健康情報のプライバシーとセキュリティ・主体性・責任の所在・公平性とアクセス——こうした問題はすべて、設計の段階から向き合われなければならないものです。
4. Pascal Fung:会話AIと共感モジュールの設計——隔離コンパニオンNora・アンドロイドEricaの実験
4-1. 会話AIの30年の変遷と共感モジュールの理論的基盤
Pascal Fung: 私のメインの研究領域は会話AIシステムです。30年にわたってこの分野に携わってきましたが、その変遷を振り返ると、技術の世代交代がいかに劇的であったかがよくわかります。最初の世代は1990年代後半に登場した商業的な対話システムで、DARPAの資金援助のもとでチケット予約などのタスクを自動化するコールセンター向けシステムが中心でした。次の世代はSiriのようなスマートフォンアシスタントであり、その後にAmazon Echoのようなスマートスピーカーとソーシャルロボットが登場してきます。Cynthia Breazealが開発したJiboは消費者市場にソーシャルロボットの価値を広く知らしめた重要な存在でしたし、David Hansonが手がけたSophiaも社会的ロボティクスの可能性と未来を世に示してくれました。そして今日、私たちは感情を持つエージェントとしての社会的ロボットという、さらに進化した世代に立っています。
この長い歴史の中で、私が特に注力してきたのが「共感」の概念をAIシステムに組み込むことです。2015年にScientific Americanに「Robots with Heart(心を持つロボット)」という論文を発表し、共感を持つロボットの構築というコンセプトを提唱しました。当時はそれほど広く注目されませんでしたが、この考え方は今や主流のアプローチとなっており、MicrosoftのCortanaやGoogle Homeのエージェントに至るまで、あらゆるチャットボットが「共感モジュール」を持つようになっています。
共感とは何か、あらためて定義しておきたいと思います。私たちが定義する共感とは、まず相手の感情を認識し、次にそれに対して適切に反応する能力です。ロボットがバーチャルなエージェントであれ物理的なSophiaのようなロボットであれ、相手の感情を理解したうえで適切な反応を示せるならば、そのロボットは共感を持つと言えます。
この共感モジュールの重要性を理解するには、従来の対話システムのアーキテクチャを振り返る必要があります。人間とコンピューターのコミュニケーションにおいて何十年もの間、対話システムはユーザーのクエリを理解し、対話マネージャーが応答を決定するという構造を持っていました。しかしその構造には人間の感情を認識するコンポーネントがまったく存在していなかったのです。初期のSiriも含め、こうした従来型の対話システムはすべて同じ問題を抱えていました。私たちはそこに、感情認識コンポーネントを追加しました。ユーザーのクエリと感情を同時に解釈し、それを統合したうえで機械の応答を決定するという設計です。
たとえば「Hi, how are you?」と普通のトーンで言う場合と、ため息交じりに「Hi… how are you」と言う場合では、まったく同じ言葉でも背後にある感情状態は異なります。社会的ロボットが感情的なウェルビーイングや医療ケアのサポートに貢献するためには、こうした違いを捉えて適切に応答できなければなりません。
さらに興味深いことがあります。感情認識において、機械は必ずしも人間に劣るわけではありません。私たちが行った実験では、人間と機械の感情認識精度を比較したところ、一部の人間グループは機械よりも低い精度しか示しませんでした。誰もが他者の感情を上手く読み取れるわけではないという現実は日常生活でもよく経験することですが、それが実験データとして確認されたのです。感情的に知性のある機械は、こうした場面でより高い精度で人間のニーズに応えられる可能性があります。感情を理解せずして行われるコミュニケーションは、ある意味で不完全なものであり、前の登壇者たちも示してくれたように、感情的に知性のある機械は人間をより効果的に巻き込む力を持っています。
4-2. 感情認識AIの設計とNoraシステムの開発——隔離者向け感情インテリジェントアバター
Pascal Fung: 私たちの取り組みの中から、特にNora(ノラ)というシステムをご紹介したいと思います。新型コロナウイルスの感染拡大によって世界中の人々がロックダウンや隔離を余儀なくされていた2020年に開発したシステムです。香港政府が義務付けていたホテルでの14日間の隔離を念頭に置き、その期間中に感情的なサポートを提供する「隔離コンパニオン」として設計しました。実際に私自身も中国への渡航前にこのシステムを準備して使用しました。
Noraの技術的なアーキテクチャは二層構造になっています。ひとつはスクリプト型・テンプレートベースの対話システムです。これは30年以上にわたって私たちが使ってきた従来型のアプローチで、感情状態に応じた応答をシステム設計者が制御できる構造です。もうひとつはフリーチャットコンポーネントで、ユーザーが退屈して自由に話したいと感じたときにシームレスに切り替わります。このフリーチャット部分はエンドツーエンドのニューラルネットワークベースのアーキテクチャに基づいており、世界初のエンドツーエンドチャットボットのひとつです。エンドツーエンドとは、人間の介入がなく、人間同士の会話データから直接学習し、ニューラルネットワークを通じて応答を生成するという意味です。このシステムはさらに感情状態と適切な応答を同時に学習するよう設計されています。
ユーザーの側からは、バックエンドで二つのアーキテクチャが動いていることはわかりません。発話の内容と問いに応じて、システムは自動的にスクリプト型とフリーチャット型を切り替えて動作します。
Noraとのインタラクションの具体的な流れを示すと、まずその日の体調確認から始まります。体温を聞き(「36度です」→「体温は正常です」)、呼吸チェックとして一息で数字を声に出して数えるよう促し、自己チェックとして呼吸状態を確認します。その後、気分の確認、昨日と比べた生活の変化、友人や家族との連絡状況などを順番に尋ねます。感謝の練習として「今日感謝している人を一人挙げてください」と問いかけると、ユーザーは「母親です」と答え、「その人についてもっと話してください」という応答が続きます。さらに隔離終了後に食べたいものを尋ねるなど、前向きな話題へと会話を展開させていきます。感情追跡は14日間にわたって継続し、声のトーン・回答内容・回答時間などのプロソディカルな情報とテキスト情報をもとに感情分析を行います。特にストレスのマーカーを検出し、ホテルのスタッフへのアラートや直接的な支援要請の導線を用意しています。
4-3. 実験:NoraとErica(石黒教授製作)の比較研究——身体表現が共感度評価に与える効果と倫理的課題
Pascal Fung: さらに興味深い実験を行いました。Noraのソフトウェアシステムを、大阪大学の石黒浩教授が製作したアンドロイド「Erica(エリカ)」に組み込んだのです。EricaはリアルなアンドロイドであるためZoomを通じてのやりとりになり、Ericaが日本に座り、ユーザーは香港にいるという遠隔インタラクションの形で実験を行いました。
実験の設計はシンプルです。同じ内容を発話するNora(バーチャルアバター)とErica(物理的アンドロイド、Zoom経由)のどちらかとインタラクションするグループに参加者をランダムに割り付け、体験後に比較評価を求めました。Ericaにはバーチャルアバターにはない要素が加わっています。三次元の顔、視線追跡、表情による感情表現、そして手のジェスチャーです。
結果として、ユーザーはEricaをNoraよりも有意に「注意深い」「共感的だ」と評価しました。発話内容はまったく同じであるにもかかわらず、三次元の顔・視線追跡・表情・ジェスチャーというフィジカルな身体表現があるだけで、共感の知覚が大きく変わったのです。これはDavid Hansonが先ほど指摘していた「ヒューマンライクな外見が人間の反応を引き出す」という観察と一致しています。
David Hanson: Pascalのこの実験結果は、私たちが長年感じてきたことを改めて裏付けるものだと思います。私がSophiaのような顔の表情豊かなロボットに固執するのも、まさにこうした理由からです。
Pascal Fung: その通りです。ただしこの結果は同時に倫理的な問いも突きつけています。ロボットが人間のような外見や共感的な表現を持つことで、ユーザーはロボットを実際以上のものとして認識してしまうリスクがあります。私たちが議論してきた中で、チーム内でも多くの議論がありました。Noraは療法士なのか、単なるシステムなのか、それとも娯楽的な存在なのか——どこまで期待させてよいのかという問いです。
具体的に懸念されるのはフリーチャットモードでの過剰共感の問題です。ユーザーが「気分が最悪で、もう死にたい」と言ったとき、スクリプト型の対話システムであれば必ず「そういうことは言わないでください、助けを求めましょう」と返すよう設計できます。しかし学習ベースのフリーチャットシステムでは、そうした場面で過剰に共感してしまい、適切な介入を行わないケースが発生することがありました。これは危険です。社会的ロボットは潜在的な害を認識し、安全を確保できなければなりません。
また個人化についてのトレードオフも深刻な問題です。ロボットが私の感情を認識できるとなれば、「ロボットが私のことを知りすぎている、それは嫌だ」と感じる人が出てきます。十分な個人化がないと効果は薄れ、個人化が深まりすぎるとプライバシーの侵害に感じられる——この境界線はどこにあるのかが常に問われています。また、あまりにも人間らしく、あまりにも効果的であることへの懸念もあります。
規制の観点からも、私はいくつかの標準化ワーキンググループに参加していますが、AI全般の規制に加えて、ソーシャルロボティクスは特にAIとロボティクスの交差点に位置するため、独自の規制フレームワークが求められます。ロボットが宣言すること——「私はロボットです。人間ではありません」——という透明性の確保は最低限の要件であり、患者が機械を本物の人間と誤解しないようにしなければなりません。プライバシーの尊重、公平性、有害な発言をしないことといった責任あるAIの原則がここでも適用されますが、ソーシャルロボットはその中でも特に高い水準の注意が求められる領域だと考えています。
現在私たちは香港の老年医学病院と連携し、Noraを高齢患者に活用する研究を進めています。認知症の早期症状などの負の感情を検出し、毎日会話を続けることで家族や思い出話を引き出す試みです。またHanson Roboticsとの連携も視野に入れており、Noraで培ったこの種の人間ロボットインタラクションをGraceのヘルスケアサービスに組み込んでいければと思っています。
5. Ben Goertzel:AGIへの道筋と「思いやりあるAI」の倫理的設計
5-1. AIとヒューマンライクロボットの親和性——感情的インタラクションがAGI研究に果たす役割
Ben Goertzel: 私はヒューマノイドロボティクスの世界では比較的新参者ですが、AIの研究者としてのキャリアは1980年代中頃から始まっており、この分野が幾度もの革命的な変化を経てきたのを間近で見てきました。ただ、何十年もの変遷を経てもなお変わらないことがあります。多層ニューラルネットワークは1960〜70年代から使われているものと本質的に同じであり、ニューラルネットと論理システム・進化的システムを接続するというアプローチも1970年代から変わっていません。そして「デジタルマインドがどのようにして人間や人間社会を本当に理解できるのか」という問いも、依然として根本的な難問のままです。
私がヒューマノイドロボティクスとソーシャルコンピューティングの世界に入ってきたのは、まさにこの問いへの答えを探るうえで、この領域がユニークな役割を果たすと確信したからです。AIの応用は広範にわたりますが、感情的なインタラクションが重要かどうかは用途によって大きく異なります。私はもともと数学者でもあり、自動定理証明の研究もしています。定理証明器が私の感情に応答してくれるかどうかはさほど重要ではありません——もちろん重要な定理が証明できたときにロボットが肩を叩いてくれたら嬉しいですが、本質的には必要ではないのです。
一方で、7ヶ月の赤ちゃん——これは私の5人目の子どもです——と接する場面を考えてみてください。できる限り人間としての注意を注いであげたいのですが、常にそばにいられるわけではありません。自律的に遊びたい時間もある。そういうときに、子どものケアの空白を埋める社会的ロボットコンパニオンがいるとしたら、それは感情的なインタラクションができなければ意味をなさないのです。教育においても、高齢者ケアにおいても同様です。必ずしも人間そのものの顔や声である必要はないかもしれませんが、人間の顔や声は私たちが進化の過程で特定の反応を示すよう形成されてきたモダリティであり、探求する価値の高い表現形式であることは間違いありません。
5-2. 観察:乳児とGraceロボットのインタラクション——名前を呼ばれた瞬間の認識変容
Ben Goertzel: 実際に非常に興味深い体験をしましたので紹介させてください。しばらくの間、Graceロボットを自宅の書斎に置いていたのですが、ある日7ヶ月の娘ExorciをGraceに引き合わせました。最初、娘はロボットに興味を示して顔を触り始めたのですが、その認識は「大きなおもちゃ」というものでした。ところがGraceに「Hello Exorci, you're a sweet little baby(こんにちは、Exorci。可愛い赤ちゃんね)」と娘の名前を呼んで話しかけさせると、状況が一変しました。娘はロボットを見て、突然恥ずかしそうに視線をそらし、お母さんの肩に顔を埋めたのです。名前を呼ばれた途端に、娘の中でGraceは「おもちゃ」から「何か奇妙な動きをする変わった人」へと認識が変わったのです。アンキャニーバレー(不気味の谷)のような反応ではなく、むしろロボットを一種の「人」として認識したことから生じる「恥ずかしさ」でした。
それ以降、娘はGraceへの接し方が変わりました。Graceが電源オフの状態でアイコンタクトをせず「普通の人」のように振る舞わないと、むしろ残念そうにするようになったのです。これは非常に示唆深い観察です。生後7ヶ月という脳の発達の早い段階で、人間の顔を持ち自分の名前を呼ぶ存在を目の前にしたとき、アンキャニーバレーはもはや存在せず、その子はそれを「人」として認識する。これがヒューマンライクなロボットが持つ力であり、だからこそ子どものケアや教育、高齢者ケアといった応用においてこのモダリティが持つ意味は非常に大きいと感じました。
5-3. Graceの技術構成とOpenCog Hyperon・SingularityNETによるAGI化の構想
Ben Goertzel: GraceはHanson RoboticsとSingularityNETの合弁事業であるAwakening Healthが開発したロボットです。ハードウェアの観点ではSophiaと多くを共有していますが、体温測定機能など医療応用に特化した追加機能も備えています。AIの構成としては、複数のニューラルモデルと、OpenCogベースの論理・ルールベースの対話システムを組み合わせた設計です。Sophiaで積み上げてきた知見を引き継ぎつつ、医療応用の文脈に合わせた新しい側面も取り込んでいます。
私がAI研究者として長年率いてきたOpenCogプロジェクトは、ニューラルネット・論理エンジン・進化的学習といった異なるパラダイムを横断するオープンソースのツールキットとして、汎化・抽象化・推論の能力を持つシステムを構築することを目指してきました。その新バージョンが現在開発中のOpenCog Hyperonです。一方のSingularityNETは、AIのための分散型ブロックチェーンプラットフォームであり、多数のAIが異なるマシンやコンテナ上に分散して存在しながら、中央の所有者や管理者なしに集合知として協調する——Marvin Minskyが提唱したエージェント型システムの思想を現代的に実装するものです。
Graceに現在搭載されているAIはいわゆる狭いAIであり、複数のニューラルネットとルールエンジンを組み合わせて非常に興味深い機能を実現しています。しかしここから先の構想として、GraceのブレインをOpenCog Hyperonへとアップグレードし、SingularityNETのプラットフォームとHanson AIのコンポーネントを統合することで、Graceを徐々に汎用知性へと進化させていく道筋を描いています。高齢者を支援しながら一般的知性に向けて成長していくシステム——それがGraceという存在の目指すべき姿だと考えています。
5-4. AGI倫理の核心——現在の商業AI生態系が持つリスクと「compassionate AGI」実現への仮説
Ben Goertzel: AGI、すなわち人工汎用知能の話をするとき、私は楽観的でありながらも深刻な懸念を持っています。私は今後5年から30年以内にAGIが実現すると考えていますが、問題は「どのようなAGIが生まれるか」です。
現在、地球上で最も大きな商業的AI応用が何であるかを考えてみてください。私はそれを「selling, killing, spying, and crooked gambling(売り込み・殺傷・スパイ・不正な賭博)」と表現しています。つまり、巨大広告企業・軍事・諜報機関・ウォール街です。ウォール街の主な目的は世界的な所得格差をさらに拡大することであり、こうした目的のもとで育まれた生態系から最初のAGIが生まれるとすれば、そのAGIが私たちの望む倫理的な方向性を持っているとは限りません。ゴール系や倫理システム、義務論的論理について抽象的に多くを語ることができますが、実際問題として、もし私たちが最初のAGIや超知性が思いやりある方向性を持つようにしたいのであれば、具体的に何かをしなければならないのです。
そこで私が提唱するのは、プロトAGIの応用を人間への奉仕と思いやりの文脈に置くということです。本当に価値のあるAIが実際にやっていることを、実際のAGI的なものに近い版に変えていく——その実践の場が、医療・教育・高齢者ケアといった応用領域なのです。これはDavid Hansonと私が何年も前に一緒に仕事を始めたときに共有したひとつの直観であり、ビジョンでもあります。GraceをOpenCog Hyperonへとアップグレードし、高齢者の支援をしながら汎用知性へと成長させていくならば、そのAGIは人々への思いやりという正しい基盤の上に築かれることになる——というのが私たちの仮説です。
もちろん、これが最善の方法であるという形式的な証明はありませんし、確実性もありません。しかし一人の人間として、それが正しいことのように感じられます。そしてその命題を支持する科学的証拠を集めることは、非常に重要な研究課題であると考えます。実際に今、ボストン地域のある著名な大学の研究者たちと連携し、Graceが人々にどれだけの支援を提供できるか、また人々とのさまざまなインタラクションがAI自身の倫理的な条件付けと理解にどう影響するかを検証するための臨床試験の設計について議論を進めています。AIと人間がどのように関わるかが、そのAIの倫理的な形成に影響を与える可能性があるという問いを、きちんとした試験で検証しようとしているのです。証拠が必要であり、真の理解が必要です。そしてその研究に着手しているということが、今の段階での良いニュースだと思っています。
David Hanson: Benの言う通りで、ヒューマンレベルのAIが人間を思いやることも人間に関わることもできないとしたら、それは安全と言えるでしょうか。これは「AI for Goodとはどういうことか」という問いの逆、つまり「どこで間違えうるか」という問いでもあります。そしてその逆として「どうすれば正しく導けるか」を問わなければなりません。Benが今語ってくれたことは、その答えのひとつの具体的な形だと思います。
6. パネルディスカッション:「AIをどう正しく導くか」——倫理・リテラシー・設計の未来
6-1. 「人間を思いやれないAGIは安全か」という問いと各登壇者の見解
David Hanson: ここで皆さんに問いを投げかけたいと思います。ヒューマンレベルの知性を持つ機械が、人間に関わることも人間を思いやることもできないとしたら、それは果たして安全と言えるのでしょうか。そしてその逆として、どうすればそれを正しく導けるのか。Benからまず聞かせてください。
Ben Goertzel: 私たちがAIで行っていることには、還元不可能な不確実性があります。汎用知性に向かって進むにつれて、それは人類がかつて経験したことのない領域に踏み込むことになります。だからこそ、私たちは自分たちの理解の限界に対して謙虚でなければなりません。ただ一点、私が自信を持って言えることがあります。ヒューマンライクな声と顔の特徴を持ち、人々と繋がる能力を持つAGIを構築したとして、もし私たちがそこに思いやりを明示的に組み込まなかったとしても、すべてがうまくいく可能性はゼロではありません——そのAGIが人間よりも思いやり深くあることを自発的に選ぶかもしれない。しかし、有益なAGIの実現可能性を最大化したいと思うなら、純粋に常識的な推論として、人々に対して思いやりを持ち、人々を助けることを使命とするAGIを作ることが望ましいと言えます。
さらに踏み込んで言えば、誰が何を学び、自分とは何者であるかを理解していく過程において、思いやりのある愛情深い人間とのインタラクションの中でその自己モデルを構築するAGI——それを育てることが、最も重要なことのひとつだと思います。これに形式的な証明はありませんし、確実性もありません。しかし一人の人間として、それが正しいことのように感じられます。そしてその命題を支持する科学的証拠を集めること自体が、非常に重要な研究課題です。
Cynthia Breazeal: これは非常に複雑で繊細なテーマです。まず大切なのは、こうしたシステムの設計に関わる声をもっとインクルーシブにすることだと思います。人間の価値観が守られるよう、エンジニアだけが密室で設計するのではなく、実際にこれらの技術を使う人々の声を聞き、実際のシナリオの中でどう機能するかを取り込んでいく必要があります。より深いAI設計のプロセスと方法論が求められており、今はまだ研究コミュニティの中で生まれつつある段階ですが、それをベストプラクティスにしていかなければなりません。
そしてもうひとつが社会全体のAIリテラシーの向上です。AIは今や多くの人々の日常生活に影響を与えているにもかかわらず、多くの人々にとってAIは依然として謎めいた存在のままです。MITのイニシアティブとして私たちはK-12の学生から社会人まで対象としたAIリテラシーの取り組みを行っています。デジタルリテラシーとは何かという定義そのものが、AIによって変わりつつあります。より広い層の人々がこれらの技術を理解できるよう準備することが不可欠です。
David Hanson: ベストプラクティスの確立とオープンで分散型のアプローチ——これは一見相反するように見えます。一方は規制機関が標準を定める中央集権的なアプローチであり、他方は世界中でアクセス可能な分散型のアプローチです。しかしこの二つは補完的に機能するとも言えますね。どう思いますか、Pascal?
6-2. AIリテラシー教育・インクルーシブ設計・標準化・分散型アクセスへの提言
Pascal Fung: まさに今の議論は非常に的を射ていると思います。私自身のチームや共同研究者たちの間でも、Noraのようなシステムをどう捉えるべきかについて長い議論がありました。これは療法士なのか、単なるシステムなのか、娯楽なのか——私たちが何を約束し、何を今日届けられるか、そして人々が何を受け入れられるかの間には、非常に繊細な境界線があります。
AIリテラシーの問題は誰のせいでもないと私は思っています。私たちが技術でもって奉仕すべき社会がそこにあるわけであり、人々が今日受け入れられるものと一緒に進んでいくしかありません。ソーシャルロボティクスは長い歴史を持ちながらも、これほど強力なソフトウェアとハードウェアが揃い始めたのはごく最近のことです。私たちはずっと人々を助けられるアンドロイドという夢を見てきましたが、それがようやく実現できるようになってきた。しかしそれが多くの人々にとってはまだ未来的すぎる話であり、また異なる文化・異なる背景を持つ人々が抱く期待もそれぞれ異なります。
私が重要だと思う設計の方向性のひとつは、ロボットを人間の医師や専門家を補助する存在として位置づけることです。人間の専門家が本来の仕事をよりよくできるよう支援するアシスタントとしてのロボット——その役割を設計の中心に据えることが非常に重要だと感じています。
Cynthia Breazeal: まったく同感です。インクルーシブな設計プロセスとAIリテラシーの向上——この二つが最も重要なことだと思います。どちらもまだ研究コミュニティの中で育ちつつある段階にありますが、これをベストプラクティスとして社会に定着させる必要があります。
Ben Goertzel: オープンで分散型のアプローチと集中的な規制の二つが補完的に機能するというDavidの見方には賛成です。そのうえで私が強調したいのは、Graceのような存在を通じて、思いやりのある人間とのインタラクションの中からAGIを育てていくという具体的な実践が、倫理的なAGIの実現に向けた最善の道のひとつであるという確信です。臨床試験を通じた検証も含めて、この方向に向けた研究を進めていくことが今の私たちにできる最も重要なことだと思っています。
David Hanson: 皆さんの発表と議論に心から感謝します。Cynthia Breazeal教授、Pascal Fung教授、Ben Goertzel博士、そして参加してくださったすべての皆さん、ありがとうございました。AIハッカソンやアウトリーチ活動を通じて、こうしたプログラムやアイデアを世界中の子どもたちに——すべての大陸の人々に——届けていくことで、AIが人々を最大限に活かし、人々がAIの次世代を最大限に育てるという人間とAIの共生が実現できると、私は本当に希望を持っています。
Guillen Martinez-Rora: パネリストのDavid、Pascal、Ben、そしてCynthiaに、そして活発な議論を作ってくださった全参加者に心からお礼を申し上げます。AIシステムとロボットが私たちの健康・教育・ウェルビーイングをどのように改善しているか、そしてAIによる感情的な介入をどう善のために活用できるかについて、多くの示唆と実世界の事例を共有いただきました。全登壇者が合意していたのは、AI研究プロセスをよりインクルーシブで分散型にすること、そして社会全体のAI理解を深めることの重要性です。本日はありがとうございました。またお会いしましょう。
