AIガバナンスの論点2025バナー

AIガバナンス、国際舞台でのかけ引き

AIガバナンスを巡る論点2025 ⑤
飯田 陽一
総務省 参与

飯田参与3飯田 陽一 総務省 参与


AI(人工知能)が驚くべきスピードで進化している。人間の知をはるかに超えるAGI(汎用人工知能)、ASI(人工超知能)の実現も近いという見方もある。AIは、人間にとって便利な道具であり続けるのか、はたまた、人間を支配する脅威となるのか――。デジタル政策フォーラムのメンバーおよび関係者にその問題意識を聞くシリーズ第5回は、飯田陽一 総務省 参与(OECDデジタル政策委員会 議長/広島AIプロセス・フレンズグループ 議長/国連インターネットガバナンスフォーラムMAGメンバー)にAIガバナンスの国際舞台における駆け引きと日本の貢献について聞いた。(聞き手は、菊池尚人 デジタル政策フォーラム 代表幹事代理/慶應義塾大学大学院 メディアデザイン研究科 特任教授、以下敬称略)


菊池 飯田さんは総務省で、AIガバナンスに関する国際的な調整業務に長く携わってこられました。AIに関する国際的合意形成のこれまでの経緯と今後の展望についてお聞きかせいただけますか。

2016年G7伊勢志摩サミット:日本がリードした議論

飯田 AIに関する国際的なルール作りは、日本が最初に提案したことなのです。2016年のG7伊勢志摩サミットの直前に開催された情報通信大臣会合で、日本は議長国を務めていて、私は総務省の担当者として現場にいました。その時に、「AIは社会に大きな影響を及ぼすから、国際的なルール作りを始めるべきだ」と日本から正式に提案したのです。

ところが反応は、ほぼ総スカン(苦笑)。「インターネットや通信と違って、AIはコンピュータ技術の一つの分野に過ぎない。情報通信大臣会合で扱うテーマではない」とバッサリでした。当時はまだ、AIを世界の問題として取り上げる意識が高まっていなかったのです。

しかし、日本の立場は違っていました。2016年早々、「AIネットワーク化検討会議」を総務省が立ち上げ、かなり先取りした議論を始めていました。経済産業省も同様の問題意識でした。そうした先行的議論の中から、AIを巡る検討は日本だけでやっていては足らず、国際的に広げていく必要があるという問題意識が生まれていたのです。

G7情報通信大臣会合では、当時の高市早苗総務大臣が、「情報通信に関わるテーマなので、来年以降も議論を続けますよね?」と押し迫り、議長国がそこまで言うのを各国も嫌だとは言えず継続的に議論することが、口約束レベルではあったにせよ、なんとか決まったのです。あの場で日本が踏ん張らなければ、AIに関する国際的議論は数年遅れていたかもしれません。

菊池 その後、どのように進展していったのでしょうか。

飯田 2017年のG7議長国はイタリアでした。日本からイタリアの事務方には「AIはとにかく大事。昨年の約束もあるので、議題としてしっかり取り上げてほしい」と懸命に働きかけました。最初、イタリア側は「本当にやるのか?」と必ずしも積極的ではなかったのですが、自動運転や医療など、AIが社会に与える影響は非常に大きいという認識と理解が徐々に広がっていきました。その頃から「人間中心のAI(human-centered AI)」という言葉が使われるようになり、倫理や透明性をどう確保するかという議論が国際的な場でもされるようになっていったのです。

そして2018年、カナダで開催されたG7シャルルボア・サミットで「AIの未来のためのシャルルボワ・共通ビジョン(G7 AIビジョン)」の合意に至り、「人間中心のAI」という文言が明記されました。国際的な合意に基づくAI原則が初めて文書化されたのです。

その舞台裏でも攻防がありました。AIに関して守るべき原則を列挙する中に「データ」という項目があったのに対して、ある国の外交官が「我々は人間の尊厳とAIの関係を議論しているのであって、データ云々は関係ない」と異議を唱えたのです。危うく「データ」に関する記述がごっそり削られかけて、もうびっくりしまして、日本の外務省に頼んでなんとか押し戻してもらいました。AIとデータは密接不可分という考えは、当時はまだ議論をしていた外交官の間でも共通認識になっていなかったのです。AIの健全な発展と開発にはデータが果たす役割が大きいという観点がかろうじて残ったことで、そこから徐々に理解が深まってきたという経緯があります。

2019年OECD「AI原則」のベースは日本モデル

菊池 G7以外の国際機関では、どのような状況だったのでしょうか。

飯田 OECD(経済開発協力機構)でも最初は同じような反応でした。OECD科学技術イノベーション局長だったアンドリュー・ワイコフ氏も、インターネットならともかくAIを積極的に扱うスタンスではなかった。そこで、総務省からOECDに人を送り込んでAI専門タスクフォースの立ち上げに持ち込み、先述したネットワーク化社会検討会でまとめた「AI開発原則」を持ち込んで議論の土台にしてもらいました。このAI原則の日本モデルには、「人間中心」「透明性」「安全性」などが盛り込まれており、後の国際原則を先取りする内容でした。

そして、2019年にOECDの「AI原則(AIに関する理事会勧告)」が採択されました。日本がかなり汗をかいたこともあって、その内容には日本のAI開発原則の要素が色濃く残りました。事実上、日本がそのベースを提供したものだと言っていいと思います。

2020年には、「GPAI(Global Partnership on Artificial Intelligence、AIに関するグローバル・パートナーシップ)」が発足します。これは、OECDのAI原則を単なる理念に終わらせず、実際のユースケースで検証していくための国際的な官民連携組織です。提唱者であるカナダ、フランスに続き、2023年には日本にもGPAI東京専門家支援センターが設置されています。ここでも日本の立場は一貫していました。すなわち「規制は必要最小限にとどめる」「できるだけ自由な開発・利用を確保する」という考え方です。政府が上から規制をかけるのではなく、民間や研究コミュニティが自主的にガイドラインを作り、実践する形を目指したのです。

2020年から本格的にプロジェクトが走り出し、例えば「責任あるAIの実装」「データガバナンス」「イノベーションと商用化」といったテーマごとに作業部会が設けられ、産学の専門家が共同研究を始めました。当時の雰囲気はまだ楽観的でした。AIの負の側面よりも「どう利活用を進めるか」に関心が強かった。特に米国はGAFAなど大手プラットフォーマーを抱えていますから、規制強化には当然慎重でしたし、日本も「官がトップダウンで縛るとスタートアップや研究現場のスピード感を殺してしまう」という危機感を共有していました。

日本や米国、カナダは「規制は必要最小限に」「自主的なガイドラインで十分対応できる」という認識を共有していましたから、この「ソフトロー」的アプローチが国際的な標準になり得ると期待していたのです。

EUの「AI規制法」でG7内分裂の危機

ところが、この利活用推進の流れに水を差したのがEU(欧州連合)です。ふと気づけば、いわゆる「AI法」の検討を始めていたのです。非拘束、非規制、できるだけ自主規制に任せるという方向性で一緒に取り組んできたと思っていたので、正直驚きました。

担当者に問うと、「EU市民はAIの負の側面を恐れている。しっかりした規制がないと利活用も進まないという考え方もあるので、どちらが良いか検討しているのだ」と答えるので、それからは事あるごとに「過剰規制はEUのためにも世界のためにもならないから絶対にダメ。AIの発展の速さや利活用の多様性を見ればとてもじゃないが水平規制は無理。気をつけたほうがいい」と、失礼だとは思いながらもかなり率直に言い続けました。EUの担当者は「分っている。過剰な規制はしない。必要な規制しかしない」と答えていましたが、のれんに腕押しのような感じで・・・その裏ではAI法制定に向けた検討がどんどん進んでいたのです。

非常に危惧したのは、EUのAI法が過剰規制に走って、日米の非拘束型ソフトローのフレームワークと分裂してしまうことでした。G7の外側には中国をはじめとするプレイヤーがいてまた違うことをやっていることを考えるとG7内がバラバラになってしまうのは非常にまずいと思いました。そこで、日本が議長国だった2023年のG7で、AIをもう一度取り上げることにしたのです。

2023年:ChatGPTの衝撃が生み出した「広島AIプロセス」

G7群馬高崎デジタル・技術大臣会合に向けて、各国の事務方で準備を進めました。深層学習や機械学習のAIをどのように管理し、開発促進し、利活用するかについて、いかにグローバルな枠組を作っていくかを議論を重ねたのですが、特にEUに自由なイノベーションが大切であるという点を改めて認めさせようとしていました。

ところが、何回目かの事務方会合の場で合意文書のドラフトを練っている時、EUの担当者から会議室の外に呼び出されたのです。曰く、「EUとしてはこのドラフト内容は飲めない。AI法を検討している中で、“法規制よりもイノベーションが大切”というような文言が残ったら自分はブラッセル(EU本部)に帰れない。絶対に受け入れられない」と。

そこから、どこまでなら折り合えるかの探り合いが始まりました。まずは、OECDのAI原則、自由民主主義、基本的人権の保護といった共通の価値観を尊重したガバナンスの枠組みが必要であるということを再確認しました。その理念を実現するためのアプローチが国・地域ごとの歴史的・文化的・経済的な背景や状況によって違ってくるのは許容するが、G7各国が分断してしまうことは回避する。そのためには、透明性を確保し、各国フレームワークの相互運用性を維持していくべきである――。そういうスタンスに切り替えたのです。

EUが離脱してしまわないよう気を使いながら議論を進めていた時のことです。2022年11月にChatGPT3.5をリリースしていたOpenAIが、翌年3月にはChatGPT4を正式リリースし、さらにサム・アルトマンCEOが4月に突如来日して岸田文雄総理(当時)と面会。新聞の一面を毎日AIの記事が飾りました。突然、「生成AI」を抜きにしてAIガバナンスの議論は成立しなくなりました。

ところが、生成AIをそれまでのAIと一緒にして論じられるのか、生成AI特有のリスクやポテンシャルは具体的に何なのかなど、詳しいことはその時点では分かりません。デジタル大臣会合は2023年4月末に迫っています。それまでに結論を出すのはとても無理でした。

そこで、大臣会合後も継続して議論しようということになったのですが、驚いたことに一番前のめりだったのは腰が引けていたはずのEUだったのです。EU代表は、「すぐにG7で議論を始めるべきだ。日本の議長下でぜひともやってほしい」とまで言うのです。生成AIの強烈な衝撃のおかげで空気がガラリと変わりました。2016年のG7伊勢志摩サミットの冷ややかな空気とは真逆です。私自身、体の中で血が逆流するような、そんな気持ちの高まりを感じた瞬間でした。

そんな経緯でサミット後も関係閣僚で議論を継続することになったのですが、広島サミットで、ならば名前をつけようということになりました。それが「広島 AIプロセス」だったのです。

2025年:バンス演説で「AIの安全性」の議論が停滞

菊池 広島AIプロセスの背景にAIガバナンスの分断危機があったとは・・・。生成AIの登場が逆に救いになっていたということにも驚きました。広島AIプロセスの成立から現在まで、国際的コンセンサス形成はどのように進んだのでしょうか。

飯田 進んだというより、現在は停滞していると言ったほうがいいかもしれません。

2024年8月に「EU AI Act」、別名AI規制法が施行されました。ただし、EU加盟国は必ずしも一枚岩ではなく、特にフランス政府は強すぎる規制に懐疑的だと言われています。実際、2025年2月にパリで開催された「AIアクションサミット」はフランスとインドが共同議長を務め、AI開発における国際協力を推進すること、過剰な規制には反対する姿勢であることをアピールしました。

米国からのゲストとして招かれたのはJ・D・バンス副大統領です。「私はAI の安全(safety)について話すためにここに来たのではない。AI の機会(opportunity)について話しに来たのだ」という言葉から始まるスピーチは、EUのAI法をあからさまに批判・牽制するものでした。それを笑顔で聞くマクロン仏大統領とモディ印首相の姿は、このカンファレンスのスタンスを象徴するものでした。

このバンス演説以降、今までG7やOECDで作ってきたAIの「安全性」に関するフレームワークは協調的に運営できなくなるのではないかという危惧が広がり、明らかに議論が停滞してしまいました。さらに、様々な政策文書から「AIの安全性」という言葉が取り除かれたり、「信頼性」といった別の言葉に置き換えられたりして、まるで言葉狩りのような様相を見せるほどでした。

そして、2025年7月に「AMERICA’S AI ACTION PLAN」が発表されました。バイデン前政権の安全規制の撤廃、米国製AIの輸出促進、データセンター建設の許可手続き迅速化など、徹底的なイノベーション促進策となっています。そして、米中対決という大きな構図の中で、どちらの側につくのかという選択を他国に迫る内容になっているとも言えます。

広島AIプロセス・フレンズグループに「G7」が付かない理由

菊池 AIガバナンスを巡る国際的議論は、今後どのように進んでいくのか、いくべきなのか――。飯田さんはどうお考えですか。

飯田 非常に難しい質問です。理想を言えば、米中が、相容れないところはあったとしても、ちゃんと話ができて、ある程度の相互理解ができれば良いなとは思いますが、簡単なことではないでしょう。

G7では、広島AIプロセスを含めて、「G7のためのルールではなく、グローバルなルールを目指していこう」という意識をもって私たちは頑張っていました。ですから、「広島AIプロセス」には「G7」という文字が入っていないのです。G7以外の国々から嫌われたら仲間の輪を広げられないので、あえて入れなかったのです。

広島AIプロセスに賛同する国を増やしていくために、「フレンズグループ」という枠組みを2024年5月に日本主導で立ち上げました。ところが、いざどの国を入れるのかという話になったとき、各国の反応が渋いのです。シンガポール、韓国、オーストラリアくらいまでは大丈夫なのですが、その先になるとなかなか賛同が得られない。何が心配かというと、一つはG7レベルの議論についてこれないような国が入ってくるとカオス状態に陥って議論が進まなくなるのではないかという懸念。もう一つは、自由民主主義的な価値観に相容れない国々を安易に入れてしまうと根本的に議論がかみ合わなくなってしまうのではないかという懸念です。

そうした心配もわかります。しかし、中国はものすごい勢いで仲間づくりを進めているのに、そんなことを言って止まっていたら勢力図が書き換えられてしまうかもしれません。それに、私自身は官邸から「やれ」と言われているので立場上やらないわけにはいきません(笑)。最後は、「ならば日本が勝手にやる」と啖呵を切って始めたのがフレンズグループなのです。G7各国も付き合いで入ってはいますが、日本がいわば永年議長になってどんどん声をかけていくことにしました。現在では、発展途上国を含めて56か国+EUが加盟してくれています(直近では2025年9月にインドネシアが参加)。

国際連合という場もあるではないかとおっしゃるかもしれませんが、中国が国連加盟国を本気で先導すれば、G7は数で負けてしまうでしょう。中国と途上国にとって都合の良い国際ルールが出来上がってしまいG7が作ったものは目もかけられないということになりかねません。特に政府がトップダウンで規制を課し、人権やプライバシー、基本的な自由を尊重しない制度が世界に広まる。それは避けなければならない。ですから、国連の場でAIが議論された時、日本やG7の主張に耳を傾け理解してくれる国を少しでも増やしておきたいのです。フレンズグループには何の拘束力もありませんが、普段から基本的な考え方を共有しておけば、いざという時に話くらいは聞いてくれるのではないかと願って、ここまで頑張ってきました。

理想はマルチステークホルダーのIGF型

菊池 G7でもOECDでも国連でもないとなると、やはりIGF(Internet Governance Forum、主催は国連)のようなマルチステークホルダー方式によるコンセンサス形成を目指すべきなのでしょうか。

飯田 政府だけでなく、全ての関係者が関与して、意見を言って、ガバナンスが構築・運営されていくのが理想的だとは思います。日本ではこの9月1日にAI法(人工知能関連技術の研究開発及び活用の推進に関する法律)が全面施行されましたが、これはEUのAI規制法とは違い、しっかり運用すればマルチステークホルダーによるガバナンス、共同規制的な方向付けが可能であり、一つの理想形だと思っています。

ただし、これをグローバルに展開できるかというと、かなり難しいと思います。民主主義体制の国々となら一緒にやれるかもしれません。しかし、政府が圧倒的な力を占めている体制(権威主義国家)と接合するためには、政府にある種のタガをはめるような強制力ある規律をかける必要があります。それが受け入れられなければ一体化は難しいでしょう。言い換えると、法の支配、個人の自由、プライバシーといった守るべき絶対的価値がある国とは政府はどこまでやっていいかという話し合いが成立しますが、それがない国とはゼロからの議論になってしまうのです。ですから、G7やOECDの延長線上に絶対解はないと思います。国連で統一的なAIガバナンスのフレームワークを作ることも難しいでしょう。

やはりIGFのようなマルチステークホルダーが集まって議論する場が必要だと思います。AIの課題を自由に議論して、それを持ち帰って各国・地域で制度や枠組みを整える。それをまたマルチステークホルダー間で共有してということを繰り返しながら、グローバルな枠組みに向けて一緒に議論を続けるというイメージです。IGFには中国の関係者も参加していますからね。

2年後くらいに目指しているのは、IGFのAI版ができていてマルチステークホルダーによるAIガバナンスの議論が始まっている状態です。そして、最後はIGFと統合していくのが自然だと思います。最初からIGFでやるという考え方もあると思います。

すぐに、AIガバナンスの世界統一フレームワークが作れるなどとは考えていません。例えば、まずはOECDのAI原則や広島AIプロセスのようなものを広く共有していって、マルチステークホルダーによる共同ガバナンスの考え方を多くの国々に徐々に浸透させていきたい。そして、ついに、そういうものを許容しない権威主義国との境界線に辿り着いたとき、法の支配や人権尊重という根底の価値観のところから議論をする。彼らは決して人権を尊重しないとは言わないし、自分たちは民主的だと主張します。ならばそれをしっかりやってくれよと注文を出し、どんな協力ができるだろうかという対話から始める。いつか、そんなことができる時が来るのを切に願っています。

アメリカが大きな不確定要因に

菊池 IGFのAI版、“AIGF”をつくるというアイデアはとても興味深いですね。中国を巻き込むということも重要ですが、かつては世界のリーダーだったけれども今では“ならず者”のようになってしまったアメリカをフラットな関係性で引き込むための仕組みが必要になっているのだなと感じました。

飯田 確かに、アメリカが不確定要因になってしまっている現状はあります。個人的には、AIなどデジタル分野では、最初は口で威勢のいいことを言っても実際にはそれほど極端なことはしないだろうと思っているのですが、予測不能性は高まっていて、事あるごとに手探りで向き合わなければなりません。広島AIプロセスの交渉も「日本が米欧の間に入ってうまく調整した」と言ってはいますが、本当は日本がアメリカの力を借りてEUを引き込んだというのが実態です。

ですから、アメリカは表面的にはヤンチャなポーズを取り続けているけれども水面下では今までと同じように日米で協力していける、という一点さえ確認できれば、日本はアメリカの“フルスタック”という言葉に乗っかって日米混成AIをどんどん展開できる。これはむしろ大きなチャンスになると思います。

一方、アメリカはトランプ大統領のメッセージに従ってファイティングポーズをとり続けるということならば、日本の処し方も変わらざるを得ないでしょう。右にアメリカ、左に中国がいて、両者が激しく対立しているならば、日本はその他の国々を巻き込んでグローバルな協力を呼び掛け、そこに米中を逆に引き込んでいくといった構図がつくれたら、これもまた日本にとってのチャンスになるかもしれません。

EUと協力してアメリカからの圧をかわすという考え方もあるのですが、ことAIに関しては規制色の強い「EU AI法」が邪魔をして動きが取りにくい。パートナーとして誰と組むかによって、理想的なAIガバナンスを目指すプロセス、経路が変わらざるを得ないのです。しばらくは過渡期の混乱が続くだろうという感じがしています。

菊池 ちなみに、AIに関する議論ではロシアの存在感が感じられないのですが、実際はどうなのでしょうか。

飯田 AIの議論でロシアが話題になることは、ほとんどありません。我々はG7やOECDという場で民生(非軍事)に限って議論をしていることもあって、ロシアの意見を聞きたいと思うこともないし、ロシアが出てきて積極的に発言することもありません。

話題に上るのは中国やインドです。特にインドは人材的にも産業的にもかなり実力を上げてきています。世界最大の民主主義国であると言うだけあってG7各国と近いところも多い。AIガバナンスの議論ではぜひ仲間に取り込みたい相手です。

余談ですが、フレンズグループへの加入交渉で一番時間がかかったある国の場合、政府内で了解が取れないと言うので何が問題なのかと聞けば、「国防省がうんと言わない」というのです。フレンズグループは民生領域のAIガバナンスが対象であって軍事領域は扱わないと押し戻すと、「人間中心とか人権尊重とかいう原則に国防省がピリピリしている。AIの軍事利用に制限を受けたり非難されたりするのではないかと懸念している」という答えが返ってきたのです。ついには、「広島AIプロセスの指針と行動規範は軍用とは無関係であることをお前が一筆書け」と求めてくる。驚きましたが、それで納得するならばと私が一筆書いてようやくその国の加入が決まりました。AIの軍事利用やデュアルユースについては非常に神経質になる国があることを実感しました。

日本の勝ち筋はどこに?

菊池 AIガバナンスの枠組みの構築に日本が貢献していくための課題は何でしょうか。

飯田 AIの利活用です。これが進んでくれないと国際的にリーダーシップを取ろうにも限界があると感じています。「日本はAIガバナンスで頑張っているけど、どんなAIを作っているのか?」とよく聞かれますが、残念ながらAI開発で日本は後れを取っています。せめて利活用でユニークな事例を作り出し、世界と肩を並べるということが、AIガバナンスで日本が存在感を示せるかどうかの拠り所なのです。AIガバナンスの取組の究極的目的は「安心安全にAIを開発、利用する環境を整え、AIによる社会経済の発展向上を促進する」ことにあり、日本が目指すべきものであると私は考えていますので、そのためにも日本が何らかのかたちで存在感を示すことは大切だと思っています。

そして、現実的に依って立つ基軸は広島AIプロセスぐらいしかなく、日本がAIガバナンスで貢献できるかどうかはここにかかっています。それゆえ、同僚たちはとにかく広島AIプロセスを発展させようと懸命に頑張っているのですが、私はもっと広い視野を持つべきだと注意喚起しています。いろいろな議論の場、それはガバナンスに限らず、AIエコシステムに関わるあらゆる議論の場に参加し、幅広い観点を吸収して広島AIプロセスの発展に反映させなければならない。そうしないと広島AIプロセスだけにこだわり、環境や議論の流れの変化にも置いて行かれ、結局は広島AIプロセス自体も無用のものとなってしまうかもしれないからです。

ただし、日本の中立的な立ち位置や柔軟性のある対応力は、今のような国際情勢の中で本当に強みだと思います。フレンズグループに入りたいという中近東の国々の大使や担当者たちにこう言われたことがあります。

「素晴らしい仕組みなのでぜひ入りたい。しかし、あなたが G7、G7と繰り返すたびにアメリカやイギリスが脳裏に浮かんできて警戒してしまう。日本がリーダーシップを取っているプロジェクトであり日本と一緒にやろうと言ってくれた方が、みんな安心して入れる」

日本の国際的リーダーシップの取り方を言い得ていると思いました。みんなの橋渡し役、仲介役になって仲間を作っていく。こうすべき、こうでなければならないではなく、柔軟性があって、包容力があって、ふわっと優しい枠組みがつくることができれば、そこに日本の勝ち筋が見えてくるのではないかと思います。

最近心配しているのは、各国が「ソブリンAIをつくる」ということを言い始めていることです。各国・地域の言語や文化に基づいたAIをつくるという考えは分かりますし、言葉そのものを否定する気はないのですが、「ソブリン」と言う言葉には、往々にして人も技術も内に抱え込んで、排他的、閉鎖的に進める意図が隠されていることが怖いのです。それは「ソブリン・データ」という発想につながっていき、クローズドなAIエコシステムの乱立につながる恐れがあり、とても危険です。

もう一つの心配は、中国による発展途上国の囲い込みです。今、中国のAI戦略の中心は国際協力です。途上国に対して、人、技術、資金を含めた協力提供を積極的に喧伝しています。途上国側は、元々デジタル化で先進国に搾取されたという被害者意識が強いですし、AIでまた格差が広がるのではないかという警戒感もある。そもそも、AIどころかインターネットさえない場所もある。どうしても守りに入りがちなのですが、中国はそこに付け入り、笑顔で手を差し伸べて中国AIの勢力圏の拡大を狙っているのです。しかし将来、知らないうちにあらゆるデータが中国政府の手に渡ってしまう。これは恐怖の構図だと思っています。

菊池 最後に、飯田さんが個人として欲しいと思うAIは?

飯田 私、実を言うとパソコンやAIのリテラシーがめちゃめちゃ低いんです(笑)。プログラミングスキルや高度なIT知識をもたない私を優しく助けてくれるAIを切望します。

今は、手紙や文章はAIに頼めばすぐにできることは分かっているのに、ついつい自分で書くことにこだわって30分かけたりしています。そんなちょっと頑固な私のことをよく理解して伴走してくれるバディのようなAIがあったら、私自身、考え方をもっと柔軟にして、内にある壁を乗り越えていけるのではないかなと思います。

菊池 AIとともに自分自身を成長させていきたいという飯田さんの意欲に感銘を受けました。そして、AIガバナンスの舞台裏での日本の貢献について具体的にお話しいただき、まことにありがとうございました。


Interviewee

飯田 陽一 / Yoichi Iida

総務省 参与 (前・情報通信国際戦略特別交渉官)

東京大学経済学部卒業後、1988年、旧郵政省入省。91年~93年、OECD事務局ICCP(情報コンピュータ通信政策)課勤務。98年~01年、在ドイツ日本大使館一等書記官に就任。15年、総務省情報通信政策総合研究官、23年~25年(4月末まで)、総務省情報通信国際戦略特別交渉官。25年5月より総務省参与。

2016年にG7情報通信大臣会合WG議長、19年にG20デジタル経済TF共同議長を歴任し、AI原則の国際的議論を促進。20年よりOECDデジタル経済政策委員会議長に就任し、現在のデジタル政策委員会議長に至る。また、2023年にはG7デジタル・技術WG共同議長を務め、「広島AIプロセス」の立ち上げに貢献。広島AIプロセスWG議長を務め、広島プロセス国際指針、行動規範の合意を主導。その後、広島AIプロセスの精神に賛同する国・地域の自発的な枠組みとして24年に「広島AIプロセス・フレンズグループ」の立ち上げを主導し、約50ヵ国の参加を実現し、フレンズグループ議長を務める。25年2月に東京で開催された初のフレンズグループ対面会合では民間企業や国際機関等が参画する「広島AIプロセス・フレンズグループ・ パートナーズコミュニティ」の立ち上げを主導。

このほか、2022年~23年にGPAI実行委員会議長を務め、GPAI東京サミットの開催を主導。また23年には国連インターネットガバナンスフォーラム(IGF)のマルチステークホルダー・グループ(MAG)共同議長を務め、IGF京都会合の準備に貢献した。