※本記事は、ITU(国際電気通信連合)主催のAI for Goodウェビナーシリーズ「AI Policy, Standard and Metrics for Automated Driving Safety」の内容を基に作成されています。本ウェビナーは、自律・支援型運転AI向けITUフォーカスグループ(FG-AI4AD)第6回会合との共同開催として実施されました。ウェビナーの詳細およびアーカイブ映像はhttps://www.youtube.com/watch?v=TPccli2fO_A でご覧いただけます。
本ウェビナーには以下の登壇者が参加しました。ITU電気通信標準化局長のChaesub Lee氏、欧州委員会DG ConnectよりTatiana Sainz氏およびSalvator氏(EU AI法提案の起草担当)、StellantisよりKai氏(型式認可・国連規則担当)、欧州自動車工業会(AIA)よりスマートモビリティ・アドバイザーのMarta氏およびAIタスクフォース・パイロットでFSグループAI研究ディレクターのPatrick氏、自動運転安全コンソーシアム(AVSC)ディレクターのAmy Chu氏、ETSI TC ITS議長兼Car2Car Communication Consortium事務局長のNiels氏、そして自律運転者アライアンス創設者・ITUフォーカスグループ議長・RoboraceチーフストラテジーオフィサーのBrian Balcombe氏がモデレーターを務めました。
本記事では、ウェビナーの内容を要約・構成して記述しています。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りが生じている可能性もありますので、正確な情報や文脈についてはオリジナルの映像をご覧いただくことをお勧めいたします。
1. 開会・セッション概要と自動運転AIの社会的意義
1-1. ITUおよびフォーカスグループからの挨拶と問題提起
Stefano Poori: 皆さん、こんにちは。ITU(国際電気通信連合)のStefano Pooriと申します。本日はAI for Goodサミット・ウェビナーシリーズへようこそ。ITUは情報通信技術を専門とする国連機関であり、エクスプライズ財団と共同で、38の国連姉妹機関およびスイスとの連携のもと、AI for Goodグローバルサミットを主催しています。このサミットの目標は、AIの実践的な応用を特定し、国連の持続可能な開発目標(SDGs)を推進するとともに、そのソリューションをグローバルに展開することです。本日のウェビナーのテーマは「自動運転安全のためのAIポリシー、標準規格、および指標」であり、ITUの自律・支援型運転AI向けフォーカスグループとの共同開催となっています。本日は著名なパネリストの方々にご参加いただいておりますが、参加者の皆さんの積極的な質疑によって、活発な議論が生まれることを期待しています。
Chaesub Lee(ITU電気通信標準化局長): ご参加の皆さん、ならびにご家族のご健康をお祈り申し上げます。「AIベースの運転技術」という言葉は今や新しい概念ではなくなりましたが、この技術が今後数十年にわたってモビリティを根本から変革すると確信しています。現時点では、SAEレベル2に相当する部分的な自動化については安全性に一定の自信がありますが、より高度な自動化への探求は続いています。その目的は、交通安全の向上、通勤者が移動時間をより生産的に活用できるようにすること、そして障害者や高齢者のモビリティを改善することにあります。完全自動運転車両が実現すれば、毎年世界で発生している約130万人の死亡と2500万人の負傷を削減することができます。これこそが、自動運転車両がSDGs達成に対してなし得る最も重要な貢献です。
しかし、自律型自動運転の普及には、社会的懸念や変化への抵抗をはじめとする多くの障壁が存在します。AIが運転者や歩行者の安全に対してますます大きな責任を担うようになるにつれ、倫理的な問題も生じています。そのため、規制当局は国家政策を考慮した革新的な法的・規制的枠組みの構築を議論しています。この枠組みには、テストやライセンスの新たな方式、データ保護・セキュリティ・責任に関するアプローチが含まれます。また、AIをドライバーとして受け入れることに影響を与える要因を理解するために、さらなる研究が必要です。
この観点から、欧州委員会がEUレベルでAIの政策枠組みを確立しようとしている取り組みを歓迎しており、この枠組みが将来の交通システムにどのような影響を与えるかを共に理解していきたいと思います。ITUは2019年10月に自律・支援型運転AI向けフォーカスグループを設立しました。このグループは、1949年および1968年の国連道路交通条約が定める最低性能基準を満たすAIシステムの評価メカニズムを開発しています。また、このグループの活動の一環として、自動運転システムが全事故を排除できないという倫理的課題を検討するため、「Morty M問題」が提起・研究されました。この問題は、衝突事故に至る過程における自動運転ソフトウェアの挙動に関する社会の期待に深く関わるものです。本日のウェビナーが、自動運転技術を安全な方法でテスト・展開するための適切なガイドラインを規制当局が策定する必要性を探求する場となることを期待します。
1-2. ウェビナーの構成と登壇者紹介
Brian Balcombe(Roborace最高戦略責任者、自律運転者アライアンス創設者、ITUフォーカスグループ議長): Stefano、Chaesub、ありがとうございます。フォーカスグループの活動がここまで来るのに、ほぼ2年の道のりがありました。現在グローバルで350名の参加者を擁し、そのうち多くの方が本日もご参加いただいています。なお、明日も同じ時間帯にフォーカスグループの後続会合がございますので、本日ご参加の皆さんもぜひご参加ください。
本日のセッションは、欧州委員会が提案したAI水平規制が自動車セクターと自動運転の型式認可・標準規格にどのような影響を与えるかという問題意識から企画されました。セッションは2部構成となっており、まず欧州時間の13時から15時にかけてセッション1を行います。ここでは欧州委員会のAI法提案に焦点を当て、同法の起草者でもあるTatiana SainzとGabrieliが詳細を説明します。続いて、StellantisのKaiから型式認可とAI法の関係について、AIAのMartaとPatrickからも見解をいただきます。セッション1の最後はパネルディスカッションの形式で締めくくります。
短い休憩を挟んだ後のセッション2では、AIの道路上での規制に関連する標準規格について議論します。ここでは自動運転安全コンソーシアム(AVSC)のAmyと、ETSIのNielsをお迎えします。特に事故時に必要なデータや指標、さらには連携・協調型の自動走行に不可欠な通信能力についても取り上げます。質問は随時Q&Aボックスからお送りいただけますので、ぜひご活用ください。
2. EU人工知能法(AI法)の背景・設計思想・主要要件
2-1. EU AI政策の歴史的経緯と2021年AIパッケージ公表までの道のり
Tatiana Sainz(欧州委員会): 本日はご招待いただきありがとうございます。私はDG ConnectのTatianaと申します。同僚のSalvatorとともに、欧州委員会が提案した人工知能法(AI法)についてご説明します。まず強調しておきたいのは、AI法は突然生まれたものではなく、2015年以来の長い政策議論の積み重ねの上に立っているということです。2015年から2021年にかけて、多くのステークホルダーを巻き込んだ準備的な議論と検討が行われ、その結果として今回のAIパッケージが生まれました。
EUにおけるAI規制の出発点として特に重要なのは、2018年に採択された最初のAI戦略です。これにより、EUとしてこの技術をどのように発展させ、どのような姿勢で臨むかという最初のビジョンと指針が示されました。そして2020年には、AI白書が発表されました。この白書は、欧州委員会のビジョンと全般的なアプローチを示す戦略的文書であり、AI技術の恩恵を最大限に享受しながらEUのグローバル競争力を高めるための施策の方向性を示すものでした。この白書において、EUが掲げたビジョンの核心は「卓越性と信頼のエコシステム」という二本柱です。技術的にどれほど優れたシステムであっても、社会の信頼がなければ広く普及することはできません。だからこそ、卓越性の生態系と信頼の生態系は常にセットで推進される必要があるのです。
並行して、自動車セクターに特化した準備作業も多数進められていました。例えば、協調・コネクテッド・自動モビリティ(CCAM)プラットフォームの活動や、コネクテッド・自動運転車の倫理に関する欧州委員会専門家グループによる報告書がその代表例です。この報告書は、道路安全・プライバシー・公平性・説明可能性・責任に関する勧告を提示しており、2021年のAIパッケージ策定に一定の影響を与えました。こうした幅広い準備作業を経て、2021年4月21日に欧州委員会はAIパッケージを公表しました。このパッケージは三つの主要文書から構成されています。一つ目は政治的な方向性を示すコミュニケーション「欧州アプローチの推進」、二つ目は卓越性の生態系を具体化する改定版「AI調整計画」、そして三つ目が信頼の生態系を制度化する「AI法提案」です。
2-2. AI定義・適用範囲とリスクベースアプローチの全体像
Tatiana Sainz: それでは、AI法提案の中身に踏み込んでいきます。まず、この立法がなぜ必要なのかという点から始めましょう。EUには既に、一般データ保護規則(GDPR)をはじめ、個人の安全や基本的権利を守るための堅固な法体系が存在しています。しかし、AIに固有のいくつかの特性、すなわち複雑性・不透明性・予測困難性・自律性・データ依存性といった特徴が、既存の規制の適用・執行をより困難にし、既存法のグレーゾーンにおける安全リスクや基本的権利の侵害リスクを生み出しています。AI法はこれらのAI固有の特性に起因するリスクに焦点を当てており、既存の製品安全法制を全面的に刷新するものではなく、あくまでそれを補完するものです。
次に、AI法の最大の貢献の一つとして「AIシステムの定義」があります。第3条において、AIシステムは「附属書Iに列挙された一つ以上の技術・アプローチを用いて開発されたソフトウェア」と定義されています。この定義は意図的に広く設けられています。なぜなら、AI技術は急速に発展しており、立法の段階で特定の技術を詳細に列挙してしまうと、法律が施行される頃にはすでに時代遅れになっている恐れがあるからです。附属書Iは機械学習をはじめとする技術リストを含みますが、この附属書は法律本文とは独立して改正できる仕組みになっており、将来登場する新たなAI技術も柔軟に追加できるよう設計されています。定義はOECDレベルでの議論を参考にしており、技術中立的かつ将来適応的な内容となっています。
適用範囲については、EU域内でAIシステムを提供・利用するすべての者、すなわち公的機関・民間企業を問わず対象となります。また、EU域外に所在する提供者・利用者であっても、そのAIシステムの出力がEU域内で使用される場合には適用されます。例外は二つのみで、専ら軍事目的に開発されたAIシステムと、国際協定の枠組みのもとで利用する第三国の公的機関です。
リスクベースアプローチについては、四層のピラミッドとして理解するのが適切です。ピラミッドの底辺にあるのは「最小リスクまたはリスクなし」のAIシステムで、これが現在普及しているAIシステムの大多数を占めます。例えば音楽の再生リストを選ぶAIなどは、個人の安全や基本的権利に対するリスクが極めて低いため、追加的な義務は課されません。業界が自主的な行動規範を策定することが奨励されるにとどまります。次の層は「透明性リスク」に分類されるシステムで、第52条によって三つの場面での透明性義務が課されます。具体的には、人間がAIと対話していることが明らかでない場合(チャットボット等)、感情認識システムや生体認証分類システムに晒される場合、そしてディープフェイクに関わる場合です。そして上位二層が「高リスク」と「許容できないリスク(禁止)」です。AI法の規制の重心はこの高リスクカテゴリーにあり、詳細な要件・ガバナンス・適合性評価手続きが規定されています。
2-3. 高リスクAIシステムの2カテゴリーと主要義務の詳細
Tatiana Sainz: 高リスクAIシステムは大きく二つのカテゴリーに分けられます。第一のカテゴリーは「規制された製品の安全コンポーネントであるAIシステム」です。これは、医療機器・機械・航空機・自動車など、すでにEUレベルのセクター固有法の対象となっている製品に組み込まれたAIシステムを指します。これらの製品はすでに第三者による適合性評価を受けており、AI法はこの既存の枠組みと連動する形で設計されています。第二のカテゴリーは、製品安全法制の対象ではないものの、特定の用途において高リスクとなりうるAIシステムです。ここでは8つの広いドメインが指定されており、重要インフラの管理・運用、教育・職業訓練、雇用・労働者管理、必要不可欠な民間・公共サービスへのアクセス、法執行、移民・亡命・国境管理、司法・民主的プロセスなどが含まれます。ただし、これらのドメイン全体が高リスクとして規制されるのではなく、附属書IIIに列挙された具体的なユースケースのみが対象となります。
高リスクAIシステムに課される主要義務は多岐にわたります。まずデータ品質の要件として、学習・検証・テストに用いるデータが関連性を持ち、十分に代表的で、できる限りエラーのないものであることが求められます。次に技術文書の整備と事後追跡可能性のための記録保持義務があります。透明性の観点からは、高リスクAIシステムには適切な使用説明書の提供が求められ、利用者が正しく理解・運用できるようにする必要があります。そして「人間による監督」の要件として、AIシステムの出力を人間が監視・介入・無効化できる手段を設けることが義務付けられています。さらに、サイバーセキュリティ対策および堅牢性・精度の確保も求められます。これらの要件は高リスクAIシステムに対して一律に適用されますが、自動車セクターについては型式認可規制との関係から特別な扱いがなされており、この点については後のセクションで詳述します。
2-4. ライフサイクルアプローチ:市場投入前の適合性評価と市場投入後の継続監視
Tatiana Sainz: AI法のもう一つの重要な設計思想が「ライフサイクルアプローチ」です。AIシステム、とりわけ将来登場する自動運転車のような複雑なシステムは、学習能力を通じて継続的に変化していきます。市場投入の時点では安全基準を満たしていても、その直後から挙動が変化しうる。この現実を踏まえ、AI法では市場投入前の事前適合性評価(いわゆる「事前(exante)」アプローチ)だけでなく、市場投入後の継続的な監視と監督のメカニズムも規定しています。
市場投入後の監視については、各加盟国または国際機関の当局が引き続きシステムの規制適合性を継続的にモニタリングする責任を担います。また、AI法は「重大インシデント」の定義を第3条に設けており、記録保持と教訓のフィードバックに関する要件を設けています。
Brian Balcombe: Tatianaの説明で「重大インシデント」という概念が出てきましたが、これはフォーカスグループの作業とも深く関わる点です。フィールドで展開されたシステムが型式認可後も安全に機能し続けているかを保証するうえで、インシデントからのデータ収集と学習は不可欠です。AmyのAVSCの研究ともまさに重なる部分ですね。
Tatiana Sainz: おっしゃる通りです。AI法はあくまで最初の一歩であり、欧州委員会は年末または翌年初頭にはAI責任法の提案も行う予定です。これは、すべての要件を満たした上でもAIシステムが損害を引き起こした場合の賠償責任を詳細に規定するものです。EUのビジョンは、製品のライフサイクル全体にわたって生じうるさまざまなリスクをカバーすることであり、AI法はその体系の中核をなすものです。また、AI法は「新立法枠組み(New Legislative Framework)」のモデルに従っており、法律そのものは高レベルの要件を定めるにとどまり、その要件を具体的な技術仕様として落とし込む作業は欧州標準化機関(CEN、CENELECなど)が担います。AI法はCENおよびCENELECとの交渉・協議をすでに開始しており、欧州の標準化機関はISO等の国際標準化機関とも密接に連携しているため、AI法は国際的な標準化活動の起点としても機能することが期待されます。
3. 型式認可制度とAI法の接続(Stellantis/Kai)
3-1. 既存の国連規則(UNR155・156等)とAI法の関係および二重規制回避の論点
Kai(Stellantis): ありがとうございます。私はStellantisのKaiと申します。自動車セクターの型式認可制度とAI法がどのように接続されるのかについて、産業界の立場からお話しします。まず前提として、自動車産業はすでに非常に詳細かつ成熟した規制枠組みの下で製品を開発・販売しています。その中心にあるのが型式認可制度です。これは、車両が市場に投入される前に、規定された安全基準を満たしていることを第三者機関が検証する仕組みであり、長年にわたって機能してきた実績があります。
自動運転に関連する直近の国際規制として特に重要なのが、UNECEが策定した二つの規則です。一つはサイバーセキュリティに関するUN規則155(UNR155)、もう一つはソフトウェアアップデートに関するUN規則156(UNR156)です。これらはすでに自動車セクターにとって基本的な規制インフラとなっており、グローバルに調和した内容であることが産業界にとって非常に重要な意味を持っています。なぜなら、自動車は本質的にグローバルな産業であり、車両はEUだけでなく世界中で販売・使用されるからです。規制が各国・各地域でバラバラであれば、開発コストが膨大となり、競争力の喪失につながります。
こうした背景の中で欧州委員会のAI法提案が登場しました。この提案は水平的な規制、すなわちセクターを問わずAIシステム全般に適用されるものです。しかしここで産業界が強く懸念するのが「二重規制」の問題です。自動車の安全コンポーネントはすでに型式認可制度の下で厳格な審査を受けています。そこにさらにAI法固有の要件が重複して課されると、同じ問題に対して二つの異なる規制体系への適合が求められることになります。これは開発負担を増大させるだけでなく、規制間の矛盾が生じた場合に企業をジレンマに陥らせるリスクがあります。したがって私たちが強く主張するのは、AI法が自動車セクターに対して別途の規制を上乗せするのではなく、既存の型式認可制度との整合性を確保した上で、必要な場合にのみ型式認可規則を修正・補完する形でAI要件を組み込むべきであるという点です。
また、ETSIのNielsが後ほど言及される通り、無線通信機器指令(Radio Equipment Directive)の第33条とUN規則との間にすでに潜在的な矛盾が生じているという事例があります。サイバーセキュリティ分野でこうした規制間の衝突が起きているのであれば、AIの領域でも同様の問題が生じうることは十分に予見できます。AI法の策定段階からこの点を正面から取り上げ、将来的な矛盾を未然に防ぐことが不可欠です。さらに、AI法は「AIソフトウェアを製品として分類する」という性格を持っています。これは、ソフトウェアが製品であるかどうかという製造物責任の観点から長年議論されてきた問題に、ある意味で一つの答えを出すものです。これは自動車産業にとって非常に重要な含意を持っており、製品責任の枠組みとの整合性についても今後の議論が必要です。
3-2. 第80条による権限委任の仕組みとWP.29改正プロセスの活用提案
Kai: AI法の構造上、自動車セクターに関して最も重要な条文が第80条です。この条文は、Motor Vehiclesのような「旧アプローチ(Old Approach)」型式認可規制の対象となる製品については、AI法の高リスク要件を直接・即座に適用するのではなく、DG GROW(欧州委員会の域内市場・産業・企業・中小企業総局)が委任立法(Delegated Acts)を通じて型式認可規則にAI要件を組み込む権限を付与するというものです。言い換えれば、AI法そのものが自動車の安全コンポーネントに直接適用されるのではなく、型式認可規則の改正という形でAI要件が吸収されていく仕組みです。
Tatiana Sainz: Kaiのおっしゃる通りです。第80条は補完性の原則に基づく設計です。AI法は水平規制として高レベルの要件を定め、その実装の詳細はセクター固有の立法を担う機関、自動車の場合はDG GROWに委ねています。私たちの意図は、既存の型式認可制度を無視したり上書きしたりすることではなく、AIに固有のリスクに対処するための追加的な要件を既存の枠組みに組み込んでいただくことです。
Kai: その点は理解しています。ただし私たちが求めるのは、DG GROWが委任立法を策定する際に、いくつかの重要な原則を守っていただくことです。第一に、AI要件を組み込む型式認可規則は、安全関連かつAI関連のものに限定すべきであり、すべての型式認可規則が一律に改正対象となるべきではありません。第二に、自動車製品の開発サイクルは非常に長く、一般的なソフトウェア製品とは根本的に異なります。したがって、新たなAI要件への適合に向けた十分な移行期間が設けられなければなりません。これは企業への配慮というよりも、安全性を確保しながら適切に実装するために物理的に必要な時間の問題です。
国際的な規制調和という観点では、UNECEのWP.29(自動車基準調和世界フォーラム)のプロセスを最大限に活用することが重要です。WP.29では年3回の会合が開催されており、国連規則はこのサイクルを通じて改正されます。これは非常に柔軟なプロセスであり、必要に応じてAI要件を段階的に組み込んでいくことができます。私たちが望むのは、「大爆発(Big Bang)」的な一括変更ではなく、各UN規則について本当にAI固有の要件を追加する必要があるかどうかをケースバイケースで検討し、通常の改正プロセスを通じて対応することです。具体的には、DG GROWが提案を行い、UN規則が改正されるという流れです。
Tatiana Sainz: その指摘は非常に重要で、私たちも強く意識しています。AI法は欧州の水平規制ですが、自動車は国際的な産業です。DG ConnectとDG GROWが緊密に連携し、ジュネーブのWP.29での議論にもEUとして一貫した立場で臨むことが不可欠です。欧州対外行動局(European External Action Service)もジュネーブでの国際的な議論をフォローしており、欧州の規制上の要件が国際標準化の議論にもしっかりと反映されるよう取り組んでいます。AI法は最初の一歩であり、これを契機として標準化機関での具体的な要件策定が加速することを期待しています。
Kai: まとめると、私たちが最も重視するのは「予見可能性」です。企業が何年も先の開発計画を立てる際に、どのような規制要件が課されるかが明確でなければなりません。その意味で、AI法と型式認可制度の接続が整合的かつ透明な形で設計されること、そして既存のよく確立された開発プロセスに適切に統合されることが、自動車産業の競争力を維持しながら安全な自動運転技術を実現するための鍵となります。
4. 欧州自動車工業会(AIA)の政策提言と産業界の懸念(Marta/Patrick)
4-1. AIA位置ペーパーの主要政策提言:バランス型・セクターベース・比例的アプローチ
Marta(AIA、スマートモビリティ・アドバイザー): ありがとうございます。私はAIA(欧州自動車工業会)のスマートモビリティ・アドバイザーのMartaと申します。本日は同僚でAI研究タスクフォースのパイロット、かつFSグループのAI研究ディレクターであるPatrickとともに登壇しています。私たちからはまずAIAが策定した政策提言の概要を、次にAI法が自動車産業にもたらす具体的な含意についてお話しします。
AIAはすでに位置ペーパーを公表しており、オンラインでご覧いただけます。私たちの第一の提言は、AIに関する規制アプローチが「バランス型・セクターベース・比例的」であるべきということです。規制枠組みは法的確実性をすべてのステークホルダーに提供する一方で、イノベーションを促進し、EU産業の競争力を維持するために十分な柔軟性と機動性を備えていなければなりません。特に自動車産業においては、すでに非常に詳細な技術規制が存在しており、AIに起因する課題にもこの既存の枠組みを活用することが最も適切だと考えています。
第二の提言は、AIの要件が高リスクのAI応用、すなわちレベル3以上の自動化車両に組み込まれた安全クリティカルな機能にのみ適用されるべきであるという点です。なぜレベル3以上なのかというと、レベル1・2の自動化においては人間ドライバーが依然として動的走行タスクの責任者であり、人間の監督という冗長性が存在するからです。これに対してレベル3以上では、特定の条件下でAIシステムが完全に責任を担う場面が生じます。これが安全リスクの質的な変化を意味し、より厳格な要件適用の根拠となります。従来のソフトウェアシステムや、安全クリティカルでない機能については、AI法の適用範囲外とすべきです。
第三の提言は、AI要件のグローバルな調和です。自動車産業はグローバルなサプライチェーンと市場を持っています。EU固有の要件が国際的な標準と乖離すれば、開発の複雑性が増大し、EUの競争力が損なわれます。したがって、AI要件はできる限り国連レベルで調和された形で策定されるべきであり、UN規則への組み込みを通じてグローバルに適用されることが理想的です。
また、欧州委員会がホワイトペーパー段階では「セクター全体を高リスクとして分類する」というアプローチを採っていたことについて、当初AIAは批判的な立場をとっていました。しかし今回のAI法提案では、セクター全体ではなく「ユースケース単位」での高リスク分類に転換されており、この点は私たちとして歓迎しています。
Patrick(AIA AIタスクフォース・パイロット、FSグループAI研究ディレクター): Martaが述べた提言に加え、私からはAI倫理の産業実装という観点を補足したいと思います。私たちは、欧州AIハイレベル専門家グループが2019年5月に発表した報告書に示された責任・透明性・信頼性・堅牢性・説明可能性といった倫理原則を実際の産業現場でどのように適用可能にするかという課題に取り組んでいます。この取り組みの一環として、SiemensやAtos、ABB、Continental、Kandouなど17のパートナー企業と共に「Itami」という組織を立ち上げました。これは自動車産業にとどまらず、AI開発・展開全般における標準化と認証の枠組みを構築することを目的としています。
さらに重要なのは、自動車産業においてAIが活用されている領域は自動運転だけではないという点です。AIはバリューチェーン全体にわたって普及しています。例えばエルゴノミクス分析、異常検知、予知保全、アフターセールス、HR採用、財務部門、モビリティ・アズ・ア・サービスなど、多岐にわたる領域でAIが活用されています。車内においても、ドライバー支援システム、リスク評価、緊急ブレーキ、快適機能、インフォテインメント、ナビゲーション、駐車支援など、直接的な自動運転機能を超えた多くの安全・快適機能でAIが重要な役割を担っています。これらすべてがAI法の影響を受けうる領域であり、規制の設計においては自動運転という一点だけでなく、こうしたバリューチェーン全体の視点が不可欠です。
また、現時点での重要な現実認識として、車両の型式認可を受けた安全クリティカルな機能における「汎用AI(General AI)」あるいは「エンドツーエンドシステム」は、研究機関の外ではまだ実用化されていません。同様に、型式認可を受けた安全クリティカルな機能における「学習型合理システム(Learning Rational Systems)」も現在の市販車には搭載されていません。したがって、現時点での規制的焦点は、実際に市場に存在するAIシステムの安全性確保に向けられるべきであり、まだ存在しない技術への過度な対応は避けるべきです。
4-2. AI法の具体的条文に対する産業界の課題認識(データ要件・人間監督・サイバーセキュリティ・記録保存)
Marta: 次に、AI法の具体的な条文が自動車産業にもたらす含意について詳しく見ていきます。高リスクAIシステムのカテゴリーについては、自動車メーカーは二つの観点から捉える必要があります。一つ目は「規制製品の安全コンポーネント」としての観点で、型式認可の対象となる車両に組み込まれたAIシステムがこれに該当します。これらはすでに既存の型式認可規制の下で第三者評価を受けているため、AI法の第80条に基づく委任立法を通じた対応が見込まれます。
二つ目は、型式認可の対象外であるAIユースケースへの直接適用です。附属書3に列挙された高リスクカテゴリーのうち、自動車メーカーに特に関係するのは、道路交通の管理・運営における安全コンポーネントとしてのAIシステム、そして雇用・労働者管理における採用AIです。さらに、音声インターフェースや将来的な車内感情認識システム、事故記録目的の生体認証分類システムなどは、透明性義務の対象となりえます。
これらを踏まえると、OEMは「AIの提供者」と「AIの利用者」という二重の立場を同時に持つことになります。自社で開発したAIソリューションについては提供者として、サプライヤーが開発したAIシステムを搭載する場合には利用者として、それぞれ異なる義務が課されます。この二重の義務は、特にGDPRのようなすでに高い要求水準を持つ規制と組み合わさると、場合によってはAIの採用そのものを企業が避けるインセンティブを生み出しかねません。例えばHR分野でのAI活用において、その恩恵よりもコンプライアンスコストが上回ると判断されれば、導入が見送られる可能性があります。これはAIの普及を目指す欧州委員会の意図とは逆の効果をもたらすものであり、慎重な設計が求められます。
AIの定義の広さについても懸念があります。附属書Iに列挙された技術には、統計的なアプローチに基づくものが広く含まれており、従来の制御アルゴリズムや環境からデータを取得して処理・決定を行う従来型ソフトウェアシステムまでもがAI定義に該当しうる状況です。これは、すでに型式認可を受けた従来型ソフトウェアシステムにまでAI法の追加要件が適用される可能性を意味し、既規制システムへの二重規制を招くリスクがあります。また、AI法がUNECEレベルでの作業を明示的に言及していないことも問題です。フォーカスグループのような国際的な場での成果物がAI法や欧州のセクター規制とどのように相互作用するのかが依然として不明確であり、グローバルな自動車産業がEUの要件に適合するためには、AI要件が国連レベルで可能な限り調和されることが不可欠です。
Patrick: 条文レベルの具体的な懸念点について、私から補足します。まず高リスクAIシステムへのデータ要件として、「エラーのない完全なデータ」かつ「正しい確率分布に従ったデータ」であることが求められています。しかしこれは、多くの場面で実践的ではない要件です。そもそもデータのエラーを検出・修正し、適切な確率分布を確保するのはアルゴリズムの役割であり、データ単体にこの要件を課すことは概念的に整合していません。要件はデータとアルゴリズムの組み合わせに対して課されるべきであり、データ単体への適用は再考が必要です。
次に人間による監督の要件ですが、これは人間の観点からは理解できるものの、レベル4・5の自律走行を実現しようとしているドライバーレスシステムにとっては本質的な矛盾を抱えています。人間が常に監督・介入できる状態を義務付けることは、完全自動運転の定義そのものと衝突します。この点はすでに欧州委員会のドライバーレスシステムに関するレベル4・5の実装提案の中でも議論されています。
サイバーセキュリティについては、UNR155がすでにカバーしていますので、AI法との間で整合性を図り、二重の要件が生じないようにすることが必要です。最後にデータの記録・保存要件についてですが、特に非常に長い時系列データが必要な場合には、技術的に極めて困難であるか、あるいは現実的に不可能な規模のストレージが求められる可能性があります。どの範囲・期間のデータ保存が真に意味を持つのか、実装の現実を踏まえた議論が不可欠です。
Marta: まとめると、AIAとしては、慎重にバランスを取った規制とイノベーション促進の両立、既存セクター規制枠組みとの整合性の確保、産業主導の取り組みと行動規範のさらなる発展、そしてグローバルレベルでのAI要件の調和という四点を核心的な要請として改めて強調したいと思います。欧州の自動車産業はグローバルな産業であり、グローバルな標準なくして持続的な競争力と安全性の両立は達成できません。
5. セッション1 総合討議
5-1. AI定義の広さをめぐる欧州委員会と産業界のやり取り
Brian Balcombe: 最初の議題として、AI定義の問題から始めましょう。Tatiana、改めてお聞きしますが、自動車セクターの観点からすると、既存の安全システムまでもがこのAI規制の対象に含まれてしまうのではないかという懸念があります。これは必ずしも好ましいことではないと私は感じていますが、この点について定義の概要を改めてご説明いただけますか。
Tatiana Sainz: ありがとうございます。定義は第3条に規定されており、確かに広い内容です。ただし意図的にそうしています。その理由は先ほど申し上げた通り、将来適応性を確保するためです。重要なのは、第3条の定義に該当するだけではAI法の義務が直ちに課されるわけではないという点です。義務が課されるためには、第3条の定義を満たした上で、さらに附属書II(規制製品リスト)または附属書III(高リスクユースケースリスト)にも該当しなければなりません。つまり定義は広くても、実際に規制の対象となる範囲は附属書によって絞り込まれる二段階の構造になっています。ここをご理解いただくことが非常に重要です。
Patrick: その点は理解しています。ただし懸念は残ります。附属書Iには統計的手法に基づくアプローチが広く列挙されており、例えばある制御アルゴリズムがわずかでも統計的な手法を用いてパラメータを決定しているならば、それはAI定義に該当しうる。そして附属書IIIの第3項目「道路交通の管理・運営における安全コンポーネント」という記載は非常に広く解釈できます。あらゆるソフトウェアが統計的手法に基づいていると解釈されれば、従来型の制御ソフトウェアまでもが定義に取り込まれてしまうリスクがあります。
Tatiana Sainz: その点についてはご指摘を真摯に受け止めています。「安全コンポーネント」という概念は製品安全法制において固有の意味を持っており、すべての制御ソフトウェアが自動的にこれに該当するわけではありません。附属書の記載の明確化が今後の課題であることは認識しており、欧州議会・理事会との交渉プロセスの中で詳細が詰められていきます。また附属書はダイナミックな文書であり、状況の変化に応じて改正できる仕組みになっています。この柔軟性こそが、今後の技術発展に対応するための重要な安全弁です。
Brian Balcombe: 定義に関してもう一点、Kaiからコメントはありますか。
Kai: 一点補足させてください。Tatianaの説明は論理的であり、第3条と附属書の二段階構造は理解しています。ただし実務上の問題として、第3条の定義に該当するかどうかの判断自体が不明確であれば、企業は安全側に倒した解釈、つまりより広い範囲でAI法の要件に対応しようとします。これは不必要なコンプライアンスコストを生み出します。したがって私たちが求めるのは、定義とその適用範囲についての実務的なガイダンスです。法律のテキストだけでなく、具体的なユースケースに対して何が対象となり何が対象外なのかを明確にする実施指針の早期策定が必要です。
5-2. 市場投入後の監視・サーベイランス、データ記録義務、および責任法との連携
Brian Balcombe: 次に市場投入後の継続的な監視という論点に移りたいと思います。Tatianaの発表の中でも適合性サーベイランスと監督について言及がありましたが、型式認可後に展開されたシステムが安全に機能し続けているかを保証するという観点から、この点をもう少し詳しく説明していただけますか。これはAmyのAVSCの研究とも深く関連する部分だと思います。
Tatiana Sainz: おっしゃる通りです。AI法は全体としてライフサイクルアプローチを採っており、これが従来の製品安全規制とやや異なる点の一つです。私たちは市場投入前の事前適合性評価、いわゆるexanteアプローチに大きな重点を置いています。しかし自動運転車のような複雑なシステムは、学習能力を通じて市場投入後も継続的に変化しうるという現実があります。そのためAI法には、システムが市場投入後も継続して要件に適合していることを確認するメカニズムが含まれています。この継続的な監視と監督は、加盟国または関係国際機関の当局が担います。また第3条において「重大インシデント」の定義が設けられており、記録保持と当局への報告義務が規定されています。
Amy Chu(AVSC): まさにその点が、私たちがデータ収集のベストプラクティスを策定した理由の一つです。自動車メーカーが展開後も継続的にデータを収集・分析し、安全性能を評価し続ける仕組みを持つことは、Tatianaのおっしゃる監視・監督の要件に直接対応するものです。型式認可で安全であることが確認された後も、実際の道路環境でどのように機能しているかを継続的に把握し、それをフィードバックとして開発に戻すサイクルが不可欠です。
Tatiana Sainz: AI法はこの分野における最初の一歩にすぎません。欧州委員会は年末あるいは翌年初頭に責任法(Liability Act)の提案も行う予定です。これはすべての安全要件を満たした上でもAIシステムが損害を引き起こした場合の賠償責任を規定するものです。AI法が義務と要件を定めるのに対し、責任法は損害が生じた際の法的救済を定めます。この二つの立法は補完的な関係にあり、製品ライフサイクル全体にわたる包括的なリスクカバレッジを実現するものです。
Brian Balcombe: その責任法の文脈で言えば、AI法第3条の「重大インシデント」の定義とデータ記録要件は非常に重要ですね。例えば展開後に事故が発生した場合、そのシステムが要件に適合していたかどうかを証明するためのデータが必要になります。
Tatiana Sainz: まさにその通りです。第3条の定義群には「重大インシデント」「予見可能な誤用」「市場監視当局」といった概念が含まれており、これらはすべて既存の製品安全法制における確立した概念を引き継いでいます。私たちは可能な限り既存の法体系を継承し、それを補完する形でAI法を設計しました。ゼロから始めるのではなく、機能している制度の上に積み上げるという発想です。
Kai: 記録保持の要件については産業界としても原則的に賛成ですが、PatrickがAIA発表で述べたように、非常に長い時系列データを保存することが技術的・コスト的に現実的かどうかという問題があります。どのデータを、どの期間、どの形式で保存すべきかについての実務的な指針が必要です。
5-3. 通過距離指標など新たな安全基準のAI法・国際規制への組み込み方
Brian Balcombe: ここで非常に具体的かつ興味深い問題を提起したいと思います。英国では現在、道路交通法(Highway Code)の改正により、人間ドライバーが歩行者・馬・自転車乗りを追い越す際の安全な通過距離が明示的に規定されるようになりました。具体的には時速30マイル(約48km)の場合には1.5メートル以上、それを超える速度では2メートル以上の側方距離を確保することが求められます。こうした具体的な安全指標が、将来的にAI法やUNECE規則の枠組みの中でどのように位置づけられ、組み込まれていくのかについて、まずTatianaのご見解をお聞かせください。
Tatiana Sainz: 大変良い例です。AI法の設計において、附属書はダイナミックな文書として機能します。例えば将来的に自動運転車と道路インフラの接続に関する新たなEU規制が制定された場合、その規制が旧アプローチ型式認可規制に該当すれば、附属書IIへの追加を通じて高リスクAIシステムの対象に組み込むことができます。また「道路交通の管理・運営における安全コンポーネント」という附属書IIIのカテゴリーへの具体的なユースケース追加という形でも対応できます。要は、法律の骨格は固定しつつも、附属書という動的な部分を通じて新たな技術・規制の発展を取り込める仕組みになっています。
Niels(ETSI): 通過距離の問題はETSIの標準化作業とも直結しています。私たちが取り組んでいる協調型ITS(C-ITS)の観点からは、車両が歩行者や自転車乗りの位置情報を正確に把握し、それを安全な通過距離の判断に活用するためには、高精度な測位と物体検出が不可欠です。ただしここで現実的な課題があります。従来の測位システムでは、歩行者が歩道上にいるのか車道上にいるのかを区別することすら困難な場合があります。集合的知覚サービス(CPS)を活用すれば精度は向上しますが、それでも測位精度には誤差が伴います。
Brian Balcombe: まさにその点が重要ですね。1.5メートルという規制値に対して、測位精度が±0.25メートルの誤差を持つシステムを使う場合、最悪のシナリオでは両側合わせて0.5メートルの誤差が生じます。そうすると規制要件を確実に満たすためにはアルゴリズム上で常に2メートルを確保するよう設計しなければならないのか、それとも無線通信のパラメータ設定と同様に誤差を折半するような「共有リスク」の考え方を導入するのかという問題が生じます。
Niels: その通りです。無線パラメータの世界では通常、許容誤差を両者で折半するアプローチをとります。測位においても同様の考え方が適用できるかどうか、規制当局との議論が必要です。ただし私からは別の視点も提示したいと思います。通過距離は走行中のリアルタイムの意思決定に使用するだけでなく、事後的な安全評価の指標としても機能します。事後評価の場合、測位精度の誤差は意思決定には影響しませんが、安全性能の記録として重要な役割を果たします。例えば歩行者に対して0.5メートルしか確保していなかったという記録がトリガーとなり、なぜそのような接近が生じたのかを遡って分析できます。センサーのキャリブレーション不良だったのか、センサー固有の偏差だったのかを特定し、次の改善につなげるサイクルが形成されます。
Brian Balcombe: その点はAVSCのベストプラクティスとも深くつながる議論ですね。データがなければ指標を定義できず、指標がなければ閾値を設定できず、閾値がなければ規制の根拠を作れない。このデータ→指標→閾値→規制という段階的な構造こそが、私たちフォーカスグループが取り組んでいる核心的な課題です。
Tatiana Sainz: そしてAI法はその最初の枠組みを提供するものです。AI法が契機となって欧州標準化機関での具体的な技術要件の策定が始まり、それがさらに国際標準化へと波及していく。通過距離のような具体的な安全指標がどのような規制手段を通じて組み込まれるかは、その時点での規制の発展状況と技術の成熟度に依存しますが、AI法の動的な附属書の仕組みはまさにそのような変化に対応できるよう設計されています。
Marta: 産業界としても、こうした国際的なレベルでの議論と標準化の取り組みを強く支持します。重要なのは、欧州委員会内でDG ConnectとDG GROWが緊密に連携し、欧州としての一貫した立場をWP.29に持ち込むことです。そしてKaiが述べた通り、年3回の改正機会があるWP.29のプロセスを活用して、実証的な根拠に基づきながら段階的にAI要件を国連規則に組み込んでいくことが、グローバルな調和と競争力の両立という観点から最も現実的な道筋だと考えています。
Kai: 最後にまとめとして申し上げると、本日のセッション1を通じて規制当局と産業界がこうした率直な対話を行えたことは非常に有意義でした。AI法とセクター固有規制の整合性確保、DG ConnectとDG GROWの協調、そして必要な場合の既存規制の改正を通じた統合。この三点が今後の鍵になると考えています。規制の予見可能性があってこそ、長い開発サイクルを持つ自動車産業はAI技術に安心して投資できます。そして投資があってこそ、安全な自動運転技術の実現が加速されます。
6. 自動運転安全コンソーシアム(AVSC)の活動とベストプラクティス(Amy Chu)
6-1. AVSCの組織概要・ミッションと「WHAT定義・HOWは各社へ委任」という技術中立的アプローチ
Amy Chu(AVSC、ディレクター): 皆さん、改めてよろしくお願いします。私はAVSC(自動運転安全コンソーシアム)のディレクターのAmyと申します。AVSCは設立からちょうど2年が経過したところです。本日はAVSCの活動概要と、私たちが公開した二つのベストプラクティスについてご紹介します。
まずAVSCのメンバー構成についてですが、メンバーはADS(自動運転システム)技術の開発・テスト、車両プラットフォームへの統合、そしてフリート所有車両としての展開計画という三つの要件のうち二つ以上を満たす企業で構成されています。意図的に規模を小さく保っているのは、合意形成を可能にするためです。私たちのミッションは、安全原則・共通用語・ベストプラクティスを確立し、最終的には標準規格につなげることです。そして特に重要なのは、公衆の信頼と自信を醸成するという役割です。SAEレベル4・5の乗客輸送車両の安全な運用に対する社会の信頼なくして、技術がどれだけ優れていても普及は実現しません。
AVSCの活動で最も根本的な原則が「技術中立性」です。私たちは「何をすべきか(WHAT)」は定義しますが、「どのようにするか(HOW)」は各社に委ねます。メンバー各社はそれぞれ固有の技術アプローチを持っており、各社の企業秘密や競争優位性を守りながら、すべての企業が共通して取り組むべき安全上の課題について議論します。特定の実装方法を規定してしまうと、技術革新の妨げになりかねません。業界全体として「この問題は重要であり対処が必要だ」という合意を形成し、具体的な解決策は各社の創意工夫に委ねるのが私たちのアプローチです。
合意形成については、AVSCはメンバー全員の100%コンセンサスを目標として掲げています。これは容易ではなく、時として課題が生じることも正直に申し上げておきます。しかしだからこそ、私たちが公開するベストプラクティスは業界全体の共通認識を反映した信頼性の高いものになります。
AVSCの成果物はすべて無料でウェブサイトから入手できます。そして策定したベストプラクティスは、SAE Internationalをはじめとするグローバルな標準化機関に持ち込み、正式な標準規格として発展させていくことを目指しています。実際の成果として、私たちの一つ目のベストプラクティスは公開から1年以内にSAE J38として改訂に反映されました。また、データ収集に関するベストプラクティスはSAE J3197の審議にも取り込まれ、現在も標準化プロセスが進行中です。
6-2. ベストプラクティス①:データ収集(2020年9月公開)——イベント定義・トリガー・39データ要素の詳細
Amy Chu: 2020年9月に公開した最初のベストプラクティスは、SAEレベル4・5の自動運転車両に特化したデータ収集に関するものです。なぜこのテーマから始めたかというと、自動運転システムが人間ドライバーに代わって動的走行タスクを引き継ぐことで、データ収集のニーズが根本的に変わるからです。人間が運転していた時代には、環境の認識・車両の運動制御・周囲への注意といったすべてのタスクを人間が担っており、事故時の状況把握も人間の証言や物理的証拠に頼る部分が大きかった。しかし自動運転システムがこれらのタスクを引き継ぐようになると、システム自体が何を認識し、何を判断し、どのように行動したかを記録するデータが不可欠になります。また、従来の衝突検知トリガーは人間が感知できる衝撃に基づいていましたが、自動運転システムが関与する状況では人間では感知できないような衝突類似事象も発生しうるため、従来のトリガー定義では不十分です。
この問題意識から、私たちはまず「イベント」の定義を新たに設けました。イベントとは「衝突または衝突類似状況」と定義されています。これは非常に重要な概念上のシフトを意味します。事故が起きてから初めてデータを見るのではなく、衝突に至りうる状況が発生した時点でデータを記録するという能動的・予防的なアプローチへの転換です。
トリガー条件については、既存の標準規格と整合させた形で規定しています。具体的には、エアバッグなどの拘束装置の展開、急激な速度変化、何らかのフォールバック(フォールバック状態への移行)を引き起こす障害の発生などが含まれます。
推奨するデータ要素は合計39項目です。このうち14項目はAVSCが新たに定義したもので、既存の標準規格には存在しなかった自動運転固有の要素です。残る25項目は既存のSAE J1698およびJ3197から特定・採用したものです。
これら39項目は三つのカテゴリーに分類されます。第一のカテゴリーは「車両制御(Vehicle Control)」で、ADSが実際に何をしたかを記録するものです。ステアリング操作・加速・制動といった車両の具体的な行動を捉えます。第二のカテゴリーは「顕著性(Saliency)」で、ADSが何を重要と判断したかを記録するものです。自動運転システムが周囲のどの物体・事象に注目し、それをどの程度重要視したかを示す情報で、これは従来の人間ドライバー向けの記録装置には存在しなかった概念です。第三のカテゴリーは「センサー情報および一般パラメータ」で、センサーが実際に何を検知したかを記録します。
このベストプラクティスの根本的な目的は、事後的な事故原因分析にとどまらず、展開後の継続的な安全性評価と改善のためのフィードバックループを形成することです。何が起きたかを記録し、なぜ起きたかを分析し、次の設計改善に反映させる。このサイクルを支えるデータ基盤を整備することが、本ベストプラクティスの核心的な意図です。
6-3. ベストプラクティス②:安全性能の指標と手法(2021年3月公開)——安全アウトカム指標・予測指標・継続的改善サイクル
Amy Chu: 2021年3月25日に公開した最新のベストプラクティスは、安全性能の指標と手法に関するものです。なぜこのテーマが重要なのかを改めて考えると、自動運転システムの安全性を測定するための信頼できる・実践可能・一貫した手法が業界全体で共有されていないという現実があるからです。様々なアプローチがすでに提案されていますが、広く採用されるには至っていません。
私はセッション1の登壇者の方々が「現時点で過度に具体的な規制を設けることは逆効果になりかねない」とおっしゃっていたことに共感します。この複雑な課題には段階的にアプローチし、まず基礎を固めることが重要です。安全アウトカムの測定は本質的に複雑であり、統計的有意性を達成するためには相当な時間と走行距離の蓄積が必要です。まだ業界全体として十分なデータが蓄積されていない現時点では、最終的な安全アウトカムだけを待つのではなく、より近い将来に測定・評価できる予測指標を活用することが重要です。
このベストプラクティスの設計思想として明確にしておきたいのは、私たちが提示する指標は「これだけ収集すれば安全だ」というものではないという点です。あくまでも基礎レベル・基盤レベルの指標であり、他の指標と組み合わせて使用することが前提です。技術が進化するにつれて、この基盤の上に追加的な指標が積み上げられていくことを想定しています。
推奨する安全性評価のプロセスは以下の継続的なサイクルとして設計されています。まず安全目標の設定から始まり、ODD(運行設計領域)に基づく性能評価、分析手法の適用、そして指標の改善へとフィードバックされます。このサイクルは一度完結するものではなく、展開後も継続して回し続けるものです。
指標は大きく二種類に分けられます。一つ目は「安全アウトカム指標」で、具体的には「クラッシュ数」と「交通法規遵守率」の二項目です。これら二項目を選択した主な理由は、現在運行中の人間ドライバー車両に対しても適用できるものであり、既存のデータとの相関・比較が可能だからです。また、報告された事故だけでなく未報告の事故やニアミスに対しても適用可能です。
二つ目は「予測指標(Predictive Metrics)」で、これが本ベストプラクティスの最も革新的な部分です。予測指標とは、クラッシュという最終的なアウトカムを待たずに、走行中の近・中期的な段階で安全性能を評価するための指標群です。具体的には四項目が定義されています。第一は「安全エンベロープの維持」で、車両周囲の縦方向・横方向の安全距離を確保しているかどうかを評価します。第二は「コンテキストに適した車両運動制御」で、加速度やジャーク(加速度の変化率)が状況に応じて適切な範囲に収まっているかを評価します。これは人間ドライバーが普段から行っている防衛運転の概念に相当するもので、例えば前方に不規則な運転をしている車両がいれば距離を置くというような判断がこれにあたります。第三は「物体・事象の検出と応答(OEDR)および反応時間」で、周囲の物体や事象を適切に検知し、適切な時間内に反応できているかを評価します。これはデータ収集のベストプラクティスにおける「顕著性」の概念とも連動しています。第四は「交通法規遵守」で、信号・標識・速度制限などへの継続的な遵守状況を評価します。
これら四つの予測指標は、開発段階のシミュレーションから、テストコースでの走行、実道路での走行、そして展開後のモニタリングまで、開発ライフサイクル全体を通じて一貫して適用できるという特徴があります。シミュレーションで収集した指標データと実走行データとを相関させることで、仮想環境での評価の妥当性を継続的に検証することも可能です。
安全性能の評価においては「文脈(コンテキスト)」が非常に重要であることも強調しておきたいと思います。適切な文脈なしに数値だけを見ても、その安全指標には意味がありません。例えば同じ急制動のデータでも、それが突然飛び出してきた歩行者への対応だったのか、それとも不必要な急停止だったのかによって、安全性の評価は全く異なります。データ収集の段階から、各イベントの文脈情報を適切に記録する仕組みが必要です。
また、閾値の設定についても言及しておきます。閾値は企業ごとに異なって構いませんし、そうあるべきです。各社が展開するODD、車両の特性、運用環境に応じて適切な閾値を設定し、同一ODD内における人間ドライバーの安全性能を集約したベースラインと比較しながら継続的に改善していくことが求められます。
Brian Balcombe: Amyのご説明は、フォーカスグループで私たちが取り組んでいることと非常に近いですね。データが出発点であり、データなしには指標を定義できず、指標なしには閾値を設定できず、閾値なしには規制の根拠を構築できない。この順序が重要です。
Amy Chu: まさにその通りです。そして私たちが常に強調することは、この作業は一社では完結しないということです。業界全体・規制当局・標準化機関が協力し、継続的に対話を続けることでしか前進できません。本日このような場で議論できることを大変ありがたく思っています。引き続き協力して進めていきましょう。
7. ETSI協調型ITS:集合的知覚(Collective Perception)の標準化(Niels/ETSI・Car2Car)
7-1. 協調型ITSの3段階と集合的知覚サービス(CPS)の概念・活用事例
Niels(ETSI TC ITS議長、Car2Car Communication Consortium事務局長): ありがとうございます。私はETSI TC ITSの議長であり、Car2Car Communication Consortiumの事務局長も務めています。本日は両組織での活動を合わせてご紹介します。
まず私たちが取り組んでいる課題を直感的に理解していただくために、一つのメタファーを使いたいと思います。すべての窓が塞がれた車の中に座っていると想像してください。その状態でも安全に車を走らせるためには、外の世界の情報をすべて車内に取り込む必要があります。レーダー・ライダー・カメラといった車載センサーはその一部を担いますが、物理的な限界があります。センサーの視野外にある物体、例えば大型トラックの陰に隠れた歩行者や、前方の見通せないカーブの先の状況は、自車のセンサーだけでは検知できません。私たちが取り組む協調型ITS(Intelligent Transport Systems)の根本的な課題は、通信チャンネルを通じてこのような情報を補完し、自動運転AIが安全な判断を下せる環境を整備することです。
協調型ITSの発展は三段階のフェーズとして整理できます。第一段階は「気づき走行(Awareness Driving)」です。この段階では、各車両が自分自身の情報、すなわち現在地・進行方向・速度などを他の参加者と共有します。さらに車両が故障した場合などの状態情報も含まれます。これはすでに標準化・展開が進んでいる段階です。第二段階が「感知走行(Sensing Driving)」です。ここでは自車の情報だけでなく、センサーが検知した周囲の環境情報、つまり他の物体の存在を共有します。私たちが本日詳述する集合的知覚サービス(CPS)はこの第二段階に位置します。第三段階は「協調走行(Cooperative Driving)」で、車両間での交渉・推論・意思決定の共有が行われる完全協調型の運転です。現在は第二段階の技術仕様の策定が主要な作業となっています。
集合的知覚サービス(CPS)の概念を具体的に説明します。例えば白い車が青い車の存在を検知しているとします。赤い車はその白い車の陰になっており、青い車を直接見ることができません。この時、白い車が「青い車がここにいる」という情報を無線通信で発信することで、赤い車はセンサーで直接見えていない青い車の存在を把握できます。同様に、歩行者や自転車乗りが車両の陰にいる場合でも、別の車両や路側インフラのセンサーがその存在を検知してネットワーク上で共有することで、直接視認できない車両にも情報が届く仕組みです。
この技術の実用的な活用事例として特にわかりやすいのが追い越し支援です。大型トラックの後方を走行している車が追い越しを試みようとする場面を想像してください。自車のセンサーではトラックの前方に何があるかを確認できません。しかしそのトラック自体が前方の対向車の存在を検知して共有していれば、後方の車は対向車が来ていることを事前に把握し、危険な追い越しを回避できます。また脆弱な道路利用者の保護という観点では、路側インフラや他の車両が歩行者・自転車乗りの位置を検知して共有することで、直接視認できない車両も安全な距離を保って行動できます。
7-2. CPMメッセージの技術仕様:センサー情報・物体の3D表現・冗長性管理
Niels: CPMメッセージの技術的な内容に踏み込みます。ETSIでは現在、このCPMメッセージの詳細な技術仕様を策定中であり、技術報告書を経て正式な技術仕様として最終化する作業が進んでいます。
CPMメッセージは大きく三つの情報要素から構成されます。第一の要素は「センサー情報」です。これはメッセージを送信している車両または路側インフラが搭載するセンサーの特性を記述するものです。そのセンサーが全方位型なのか指向性があるのか、視野角はどのくらいか、どの方向に死角があるかといった情報が含まれます。この情報が重要なのは、受信側がデータの信頼性を正しく評価するためです。例えば前方90度の範囲しかカバーできないセンサーが「その範囲内に物体が一つある」と報告している場合、受信側はその範囲外には別の物体が存在するかもしれないことを理解した上でデータを活用する必要があります。
第二の要素は「検出物体の情報」です。ここで最も重要なのが物体の3D表現です。物体の種類(歩行者・自転車乗り・車両等)、位置、距離、角度といった情報が3次元空間の中で記述されます。この3D表現を生成するためにAIが活用される場面も多くあります。受信側はこの情報を自車のセンサーデータと統合(センサーフュージョン)し、より完全な環境モデルを構築します。ただし受信側は、CPMで受信した物体情報をそのままセンサーフュージョンに投入するのではなく、事前にフィルタリングやスクリーニングを行う場合もあります。CPMメッセージの品質情報は、このフィルタリングの判断材料として機能します。
第三の技術的課題が「送信頻度の管理」です。通信チャンネルは有限であり、すべての車両が最大頻度でメッセージを送信し続ければチャンネルが飽和してしまいます。ETSIではDCC(Decentralized Congestion Control)と呼ばれる分散型輻輳制御メカニズムを規定しており、チャンネルの負荷状況に応じて各車両の送信頻度を動的に調整します。
さらに「冗長性の管理」も重要な課題です。現実の交通シナリオでは、同じ歩行者を複数の車両や路側インフラが同時に検知して報告する状況が頻繁に生じます。交差点の信号機と10台の車両が同一の歩行者の存在を同時に報告してきたとすると、受信側に同じ情報が11重に届くことになります。冗長性は信頼性の観点から一定の意義がありますが、通信チャンネルの容量を無駄に消費するというトレードオフがあります。ETSIでは冗長な情報の重複送信を最小化するためのメカニズムも仕様に組み込んでいます。
座標系についても言及しておきます。CPMメッセージの物体位置は、最終的には絶対座標系(グローバル座標)で表現される必要があります。送信側が自車基準の相対座標で物体位置を持っていても、受信側が複数の車両からの情報を統合するためにはグローバル座標への変換が不可欠です。ただしここには一つの重要な法的・規制的な論点があります。アナログの世界では、あなたのテールライトやウインカー、ナンバープレートは誰でも目で見ることができます。しかしその同じ情報をデジタルデータとして共有した瞬間に、プライバシー規制の適用対象となります。アナログ情報とデジタル情報では規制上の扱いが大きく異なることは、多くの方にとって驚きかもしれませんが、これは私たちが標準化作業において常に念頭に置かなければならない現実です。
AIのテストという観点から、従来の標準化手法との根本的な違いについても触れておきたいと思います。従来の機器テストでは、同じ条件で同じ試験を繰り返すことで一貫した結果が得られることを前提としています。しかしAIエンジン、特に学習型のシステムは入力から継続的に学習するため、同じ試験を繰り返しても毎回微妙に異なる結果が出る可能性があります。これはテスト仕様の策定において根本的な問題を引き起こします。出荷直後の状態でテストすべきか、一定の学習期間を経た後でテストすべきか、そもそも出力が毎回変わりうるシステムをどのように試験すればよいのか。これらの問いに対する答えはまだ完全には出ておらず、標準化コミュニティ全体での議論が必要な課題です。
7-3. Car2Car Consortiumによる物体品質研究:精度・信頼度の指標化とシミュレーション結果
Niels: ETSIの標準化作業と並行して、Car2Car Communication ConsortiumではCPMにおける物体品質の定義に関する独自の研究を実施しました。その研究成果をETSIへの貢献として提出しています。
この研究の背景にある核心的な問題意識はシンプルです。CPMメッセージを通じて物体情報を受け取る側は、その情報の品質を統一的に理解できなければなりません。どの車両メーカーのセンサーが検知したデータであっても、どの路側インフラが報告したデータであっても、受信側が「この物体情報の精度はどの程度か、どの程度信頼できるか」を同じ基準で評価できることが、安全な意思決定の前提条件です。
品質を表現する指標として、私たちは「精度(Accuracy)」と「信頼度(Confidence)」の二つを中心に据えました。精度とは、検出された物体の位置・形状等が実際の参照仕様にどれだけ近いかを示すものです。信頼度とは、検出された物体が実際に存在するという確信の度合いを定量化したものです。例えば同じ物体を複数回にわたって検知し、過去の観測履歴があれば信頼度は高まります。逆に、一瞬だけセンサーに反応があったような場合は信頼度が低くなります。
研究のプロセスとしては、まず文献調査を実施し、物体の精度・信頼度を表現するさまざまな手法を体系的に整理しました。次に、異なる表現手法によるシミュレーションを実施し、それぞれの手法が実際の運用においてどのような性能を示すかを比較評価しました。特に精度の表現については、相関行列(Correlation Matrix)を用いたアプローチを採用しました。これは検出物体の位置・サイズ・向き等の各要素がどの程度参照仕様と一致しているかを行列形式で表現するものです。ただしこの行列をそのままメッセージとして送信するには情報量が多すぎるため、通信チャンネルの制約に対応するための「切り詰め版(Truncated Version)」の表現形式を開発しました。これにより、精度の本質的な情報を保持しながらメッセージサイズを抑制することが可能になりました。
信頼度の表現については、複数の手法を検討した結果、移動平均(Moving Average)を用いたアプローチを採用することとしました。過去の観測データを時系列で蓄積し、その移動平均として信頼度を算出することで、単一時点の観測に依存しない安定した信頼度の評価が可能になります。
ここで一点重要な注意事項を申し上げます。CPMで提供する物体信頼度は、受信側の車両がセンサーフュージョンにおいて直接使用する信頼度とは必ずしも一致しません。受信側は自車のレーダー・ライダー・カメラ、さらに他の車両や路側インフラからのCPMデータを総合して独自のセンサーフュージョンを行い、最終的な環境認識を構築します。CPMで提供する信頼度はあくまでも「受信した情報の品質を評価するための入力」であり、受信側がこれをどのようにセンサーフュージョンに統合するかは各システムの設計に委ねられています。私たちの目標は、受信した情報について「これは精度がどの程度の物体情報であり、どの程度確信を持って存在が確認されている」という統一的な品質評価基準を提供することです。この研究成果はETSIの技術仕様へのContributionとして提出しており、標準化プロセスの中で正式に採用されることを目指しています。詳細な研究報告書はCar2Car Consortiumのウェブサイトのリンクからアクセスできますので、ご関心のある方はぜひご参照ください。
Brian Balcombe: Nielsの説明を聞いて改めて感じるのは、AVSCのAmyが提示した「WHAT(何をすべきか)」の枠組みと、ETSIが取り組む「HOW(どのように実装するか)」の技術仕様が、異なるレベルで補完的に機能しているという点です。協調型のデータ共有を実現するためには、こうした異なるレベルの標準化作業が整合的に進んでいくことが不可欠ですね。そして、このデジタルツインとも言えるような3Dの世界モデルを構築する能力こそが、コネクテッドかつ協調的な自動運転を実現するための基盤となるのだと理解しています。
Niels: まさにその通りです。そして私からの最終的なメッセージは「できる限り多くの情報を標準化する」ということに尽きます。情報交換の仕様が統一されていれば、システムの展開コストが劇的に下がり、規制当局との対話も容易になります。バラバラな独自仕様のままでは、業界全体としての信頼性の構築も、規制当局への説明も、いずれも非常に困難になります。標準化こそが協調型自動運転を社会実装するための最も確実な道です。
8. セッション2 総合討議と今後の課題
8-1. 物体検出の信頼度スコアと説明責任——Elaine Herzberg事故の教訓と3Dワールドモデルの必要性
Brian Balcombe: Amyに一点確認させてください。Nielsの発表でも信頼度スコアという概念が登場しましたが、AVSCのベストプラクティスにおいて、物体検出における信頼度の水準を具体的に評価するような取り組みはありますか。この問題は私自身非常に重要だと考えており、Elaine Herzbergの死亡事故をNTSBが調査した事例がその深刻さを端的に示しています。あの事故では、自動運転システムがElaine Herzbergという人物を時間をかけて追跡しながらも、その正体を正確に特定できず、最終的に脅威として認識するのが遅れたことが重大な要因として分析されています。物体の追跡と信頼度スコアの蓄積が、安全評価の核心的な要素になるということを、あの事故は痛切に示していると思います。
Amy Chu: ご指摘の通りです。現在公開しているベストプラクティスの中では、その点を必ずしも明示的に詳述しているわけではありません。ただし、それは重要ではないからではなく、むしろ非常に重要だからこそ、今後公開予定のベストプラクティスの中で深く扱う予定のトピックです。年内に公開を予定している次のベストプラクティスでは、特定の実装方法を規定するのではなく、なぜそれが重要なのか、どのような課題が生じうるのかという「WHAT」の観点から、物体分類の信頼度評価の意義と必要性を詳述する予定です。例えば、物体が歩行者として分類されているのか、自転車乗りとして分類されているのか、あるいは不明物体として処理されているのかによって、システムの挙動は根本的に変わります。その分類の確からしさを継続的に評価・記録することがいかに重要かを示していきます。
Brian Balcombe: この問題はフォーカスグループでも継続的に議論しています。私たちが「顕著性(Saliency)」と呼ぶ概念は、検知した全物体の中でどれが最も衝突リスクをはらんでいるかを評価するものです。Nielsが説明した信頼度の概念と非常に近い発想であり、用語は異なりますが目指している方向性はほぼ一致していると思います。
この文脈で私が強調したいのは、3Dワールドモデルの記録という課題です。Elaine Herzbergの遺族の方々が最初に発した問いは非常にシンプルで人間的なものでした。「あなたたちは私の娘を見ていたのか。どの時点で見えていたのか。どの時点で危険だと認識したのか。そしてどのような回避行動を取ったのか」という問いです。これは法的な文脈でも、検察官が当然問うことであり、社会が自動運転システムに対して当然求める説明責任の核心です。この問いに答えるためには、システムが認識していた3D環境モデルと、その環境に対して取った行動が完全に記録されていなければなりません。
Amy Chu: おっしゃる通りで、それがデータ収集のベストプラクティスにおいて「顕著性」カテゴリーを独立して設けた根本的な理由の一つです。ADSが何を重要と判断していたかを記録することは、事後的な安全評価のみならず、こうした説明責任の観点からも不可欠です。ただし正直に申し上げると、「WHAT」の記録が必要だということについては業界内でコンセンサスが得られつつありますが、それを「HOW」の観点で具体的にどう実装するかについては、まだ道のりがあります。3Dワールドモデルの記録を義務化することと、それを実際に機能させるための技術的・コスト的な現実を橋渡しすることが、次の段階の課題です。
Brian Balcombe: 重要なのは、すべての自動運転開発者が3Dワールドモデルを明示的に構築しているわけではないという現実です。一部の開発者はエンドツーエンドの学習アプローチを採用しており、必ずしも人間が解釈可能な3D環境表現を内部で持っているとは限りません。しかし社会からの説明責任の要求と、規制当局からの適合性証明の要求は、そのような実装上の違いを超えて課されるものです。業界としてこの問題にどう向き合うかは、今後の重要な議論の焦点になると思います。
8-2. 通過距離規制の測位誤差問題・トリガー値から根本原因分析へのサイクル
Brian Balcombe: 次の論点として、セッション1で提起した通過距離の問題を再び取り上げたいと思います。英国の道路交通法改正により、時速30マイルでの走行時に歩行者や自転車乗りを追い越す際には1.5メートル以上、それを超える速度では2メートル以上の側方距離を確保することが規定されました。これは自動運転システムの安全評価における非常に具体的な指標として機能しうるものです。しかしNiels、あなたが協調型ITSの標準化作業の中で直面している測位精度の問題を踏まえると、この規制の実装には根本的な技術的課題がありますよね。
Niels: 非常に重要な問題提起です。現時点での測位システムの現実として、歩行者が歩道上にいるのか車道上にいるのかを従来の測位手段だけで正確に区別することは、多くの状況で困難です。集合的知覚サービス(CPS)を活用すれば精度は格段に向上しますが、それでも測位には誤差が伴います。具体的に考えてみましょう。測位精度が±0.25メートルだとすると、送信側と受信側それぞれに誤差が存在します。最悪のシナリオでは、両側の誤差が累積して合計0.5メートルの誤差が生じる可能性があります。1.5メートルという規制値に対して0.5メートルの誤差があるとすると、規制を確実に満たすためには常に2メートルの間隔を取るようアルゴリズムを設計しなければならないのか、という問いが生じます。
Brian Balcombe: その点が核心的な問題ですね。無線通信のパラメータ議論では「共有リスク」という考え方があり、許容誤差を送信側と受信側で折半するアプローチが一般的ですが、道路安全の文脈でも同様の考え方が適用できるかどうかは、規制当局との議論が必要です。
Niels: まさにその通りです。無線規制ではこのような誤差の扱いについて確立した慣行がありますが、安全な通過距離という交通規制の文脈でどのような許容誤差の考え方を採用するかは、規制当局・標準化機関・産業界が共同で議論すべき新しい問題です。一方でもう一つの視点も提示したいと思います。通過距離は走行中のリアルタイム意思決定に使うだけでなく、事後的な安全評価の指標としても非常に有効です。事後評価の場合、測位誤差はリアルタイムの判断には影響しません。走行後のデータを解析して「この地点で歩行者から0.8メートルしか離れていなかった」という記録が残れば、それが分析のトリガーとなります。
Brian Balcombe: その点はフォーカスグループでも重要なテーマとして扱っています。指標がトリガーとして機能するという考え方ですね。例えば歩行者への通過距離が0.5メートルを下回ったという記録があれば、それが自動的にデータ記録のトリガーとなり、そのイベントの詳細データが保存される。そして後から「なぜあのような接近が生じたのか」を遡って分析できます。センサーのキャリブレーションに問題があったのか、センサーの検出精度に固有の偏差があったのか、あるいはアルゴリズムの判断に問題があったのか。このトリガー→記録→根本原因分析というサイクルが、継続的な安全改善の基盤になります。
Niels: その分析サイクルの観点から申し上げると、通過距離の指標はリアルタイムの意思決定には使わなくても、事後評価のための先行指標(Leading Metric)として位置づけることができます。「なぜ接近してしまったのか」という問いに答えるために、その瞬間のセンサーデータ・測位データ・アルゴリズムの判断プロセスを遡って解析する。これが実際の安全改善につながる具体的な手順です。ただしここで一点申し上げたいのは、通過距離のような指標を規制として採用する場合、測位精度の許容誤差を明示的に規定しないと、企業が実質的に不可能な基準への適合を求められる事態が生じうるということです。例えば測位精度が±0.25メートルであるにもかかわらず、常に1.5メートルの正確な通過距離を保証することを義務付けるならば、最悪ケースを考慮してアルゴリズムは常に2メートル確保するように設計せざるを得ません。これは規制の意図を超えた過剰な制約になりえます。
Amy Chu: 私からも補足させてください。回避行動(Avoidance Maneuver)という観点も重要です。歩行者への接近距離が閾値を下回ったとき、そのシステムが適切な回避行動を取っていたかどうかも評価の対象となります。単に「距離が近かった」という事実だけでなく、その状況においてシステムが取った行動が適切なリスク対応であったかどうかを評価することが、安全性能の本質的な評価につながります。AVSCのベストプラクティスで定義した三つの行動カテゴリー、すなわちADSが何をしたか・何を重要と判断したか・センサーが何を見ていたか、の組み合わせを分析することで、こうした判断の妥当性を評価できます。
8-3. 共通データ標準・指標・しきい値設定という段階的規制構築と今後の国際協調
Brian Balcombe: ここまでの議論を踏まえて、データ・指標・閾値・規制という段階的な構造について改めて整理したいと思います。フォーカスグループでの私たちの認識は、データが出発点であるということです。共通のデータ標準がなければ指標を定義できない。指標がなければ意味のある閾値を設定できない。閾値がなければ規制の根拠を構築できない。この順序は逆にはならないのです。
Niels: まさにその通りです。そして私たちETSIがCPMの標準化において取り組んでいることは、まさにこの「共通データ標準」の部分です。どの車両メーカーのシステムが検知したデータであっても、どの路側インフラが提供したデータであっても、同じ品質基準・同じ形式で物体情報を表現することができれば、そのデータを用いた指標の計算と評価が統一的に行えます。重要なのは、このデータが自動運転システムの意思決定のためだけでなく、安全評価のためにも同じデータが使えるという点です。例えばフォーカスグループで議論している通過距離の指標であれば、車両が展開された後の実際の道路での走行データを使って、その指標がどの程度の頻度で違反されているかを評価できます。英国の道路交通法の改正によって時速30マイルで1.5メートル以上という基準が法的な要件として確立されれば、その時点でこれは単なるベストプラクティスの指標ではなく、規制要件として機能します。規制当局が知りたいのは、シミュレーションや事前テストでその基準を満たしているかだけではなく、実際の道路での走行において、その安全な通過距離がどの程度の頻度で違反されているかです。
Amy Chu: その観点は私たちのベストプラクティスで示した継続的なサイクルと完全に一致しています。展開後のモニタリングデータが指標の評価に使われ、その評価結果が次の安全目標の設定にフィードバックされる。このサイクルは、事前の適合性評価と事後のサーベイランスを繋ぐ橋渡しの役割を果たします。自己評価と規制当局による独立評価の両方に同じデータが使えるという点も非常に重要です。開発者が自社の安全性を評価するために使うデータと、規制当局が独立して安全性を検証するために使うデータが共通の基準の下にあることで、評価の透明性と客観性が担保されます。
Brian Balcombe: 業界全体での協力がなければこれは実現しません。異なる開発アプローチを持つ企業が同じデータ標準を採用し、同じ指標の枠組みで評価を行い、その結果を規制当局と共有するという体制が必要です。フォーカスグループの350名の参加者が世界中から集まっているのも、まさにこのグローバルな協調を実現するためです。
Niels: 最後に私からのメッセージとして申し上げると、標準化の最大の価値はシステムの展開を容易にし、規制当局との対話を効率化することにあります。独自仕様が乱立している状況では、各社が個別に規制当局に対して自社の安全性を説明しなければならず、膨大なコストと時間が費やされます。共通の参照フレームがあれば、その枠組みの中で各社の実装を評価できるようになり、産業全体としての透明性と信頼性が格段に向上します。私たちが目指しているのはまさにその状態であり、引き続きETSI・Car2Car・ITUフォーカスグループ・AVSCとの協力を深めながら、この共通基盤の構築を進めていきたいと思います。
Amy Chu: 私も同じ思いです。引き続き議論を続け、問いを出し合い、協力して前進することが、最終的に道路上のすべての人の安全につながります。完璧な答えがすべて揃ってから動き出すのではなく、今持っている基盤の上に着実に積み上げていくこと、そしてその作業を業界内・業界外の協力者と共に進めていくことが重要です。本日この場にお招きいただいたことに心より感謝申し上げます。
9. 閉会挨拶
9-1. 登壇者・参加者への謝辞とITUフォーカスグループ翌日会合・次回AI for Goodセッションの案内
Brian Balcombe: それでは本日のウェビナーをまとめに入りたいと思います。Niels、Amy、最後に一言ずつコメントをいただけますか。
Amy Chu: 一点だけ申し上げます。議論を続けましょう、問いを出し続けましょう、そして協力して前進し続けましょう。それが道路上のすべての人の安全を守るための唯一の道です。この技術はまだ進化の途上にあります。だからこそ、今この段階での対話と協働が極めて重要なのです。本日ご招待いただいたことを心より感謝申し上げます。
Niels: 私からは一点、期待を込めたメッセージをお伝えします。できる限り多くの情報を標準化することを続けてください。情報交換の共通規格があれば、システムの展開が格段に容易になり、規制当局との対話も効率的になります。共通の参照枠組みがあってこそ、業界全体としての透明性と信頼性が構築されます。ETSIとCar2Car Consortiumとしても、ITUフォーカスグループおよびAVSCとの協力をさらに深めながら、この共通基盤の構築を着実に進めていきたいと思います。
Brian Balcombe: Amy、Niels、本当にありがとうございました。それではStefanoに場をお返しします。本日のセッション全体を通じて、登壇者の皆さんの深い洞察と率直な議論に心から感謝申し上げます。セッション1ではEU AI法の設計思想と自動車産業への影響について、欧州委員会・Stellantis・AIAという三者の立場から多角的な議論が行われました。セッション2では、AVSCとETSIという標準化の現場からの具体的な取り組みをご紹介いただき、データ・指標・閾値・規制という段階的な構造の重要性が改めて確認されました。参加者の皆さんからも多くの的確な質問と洞察をいただき、議論が豊かなものになりました。
Stefano Poori: Brienさん、本日のモデレートおよびウェビナーの企画・運営にご尽力いただき、誠にありがとうございました。「自動運転安全のためのAIポリシー、標準規格、および指標」というテーマで開催した本日のウェビナーは、参加者の皆さんから非常に有益だったというコメントを多数いただいています。セッション1・セッション2の両方に登壇いただいたすべてのパネリストの方々、そして活発な議論を作り上げてくださった参加者の皆さんに、改めて深く感謝申し上げます。
本日のウェビナーの続きとして、ITUの自律・支援型運転AI向けフォーカスグループの会合が明日、同じくジュネーブ時間の13時から16時にかけて開催されます。フォーカスグループの会合はすべての方に開放されておりますので、ご参加を希望される方はチャットにてご連絡先をお知らせください。担当者からご案内いたします。
また、AI for Goodプログラムでは今後も様々なセッションを予定しています。明日6月3日には、UNESCOとの共同開催によるウェビナー「AIのダークサイド」が開催されます。リンクはチャットにてご案内していますので、ぜひご参加ください。本ウェビナーの録画は後日、ITUフォーカスグループのウェブページに掲載されますので、本日ご参加いただけなかった方々にもぜひご共有ください。また、すべての発表資料はすでにフォーカスグループのウェブページからダウンロードいただけます。
本日ご参加いただいたすべての皆さん、パネリスト、パートナー、スポンサー、そして共同開催国であるスイスに改めて深く感謝申し上げます。ITUのStefano Pooriでした。本日はありがとうございました。またお会いしましょう。
