アーカイブ

オープンカンファレンス デジタル政策フォーラム「AIとデジタル政策」の開催 ~ AIがもたらす光と影、その対応を考える ~

・開催日時
 2023年7月12日(水)16:15~17:50

・開催方法
 1.オンライン(ZOOM/ウェビナー)
 2.Deloitte Tohmatsu Innovation Park Room-D講堂
  東京都千代田区丸の内3丁目3‐1 新東京ビル8階

・プログラム及び登壇者 *敬称略
 16:15~16:20
  はじめに
   中村伊知哉 iU学長
 16:20~16:35
  報告 AIに関する各国の政策動向
   菊池尚人  デジタル政策財団理事
   花光宣尚  慶應義塾大学大学院 特任助教
 16:35~17:50
  ビデオメッセージ
   村井純   慶應義塾大学 教授
  カンファレンス
   【パネリスト】
   神薗雅紀  デロイトトーマツサイバー合同会社サイバーセキュリティ先端研究所  所長
         兵庫県立大学客員   准教授
   庄司昌彦  武蔵大学社会学部 教授
   谷脇康彦  デジタル政策フォーラム  顧問
   鳥澤健太郎 情報通信研究機構 フェロー
   橋田浩一  東京大学大学院情報理工学系研究科ソーシャルICT研究センター     教授
  【モデレーター】
   中村伊知哉  iU学長

※各登壇者の資料はページ下部よりダウンロードできます
・開催内容要約
 1.はじめに
  中村:このフォーラムはデジタル庁の発足に合わせて2021年の秋にスタートした政策に関するフォーラムであり、学会、政府、シンクタンク、メディアなどから数多くの論客が集まってシンポジウムを開いたり、政策提言をしたりしてきました。今日も改めてAIに光を当ててさらに深掘りをしてまいります。

 2.報告 AIに関する各国の政策動向
  花光:生成AI技術とその影響について解説します。例えば、画像生成AIに「モルフォ蝶のような七色の構造色を持つ蝶を生成してください」と、画像生成AI用のプロンプトを組み合わせて具体的に指示すると、驚くほど詳細な蝶が生成されます。これは、具体的な概念を生成AIに伝えることにより、生成AIがその可能性を推論し、その結果を生成するというプロセスで、私は「可能性推論」と呼んでいます。
 そして、更に高精度の生成を実現するためには、AIが可能性を探るための「空間」を適切に作り出す技術も必要となります。この点は、最近話題となった生成AIによるグラビア写真集の騒動からも明らかです。ここでは、生成AIを活用することによる議論や論点が不十分なまま「可能性の空間」を作り出したため、写真集は販売終了になりました。 この点に関しては、生成AIを取り巻く多様な権利の保障や法整備が望まれることでしょう。この騒動において特に重要な点は、生成される美しい画像モデルのデータ自体は、人間の手によって深く調整されるという事実です。つまり、生成AIの開発や利用においては、人の「手仕事と自動化」のバランスが大変重要だということを示唆しています。 このように、生成AI技術には、言語化された概念から可能性を適切に収束させる能力と、可能性を推論するための空間を適切に構築する技術が求められます。このような能力や技術は、知識だけでは十分に活かすことができないので、実際にAIのツールやプロンプトを使ってみるなど、具体的なアクションをとってみることをお勧めします。

  菊池:生成AI のプラットフォーマーであるGoogle や Microsoft 、Open AI に対する各国の政策動向として、アメリカはソフトローによる規律、規制と振興を行い、EU では AI アクトの法案作成が行われました。これに対し、中国は関連法の中で個人情報、プライバシーを保護すると言いつつも、社会主義者としての革新的価値の実現に寄与するコンテンツを作ることを盛り込んでいますが、EUの法案スタッフは中国を名指しで、国家がスコアリングするような生成AI の利用は禁止すると言っています。一方、ユーザーサイドは生成AI を使ったディスインフォメーションについて、中国ではすでに逮捕者が出ているという報道や、ヨーロッパでは様々な消費者団体がステートメントを発出し、アメリカでは集団訴訟が行われているという状況です。また、著名な方々としてジェフリー・ヒントン教授、イーロン・マスク、マイケル・サンデル教授等多方面から多様なコメントや議論がなされている状況です。
 なお、日本政府においても内閣府で2つの会議体、それから総務省、経産省、文部学省などで会議が行われており、光と影、光と闇の両面を照らし、かつ歴史的な広がりのある議論がなされているのかどうか、それに対してアカデミズムや民間サイドはどのようにアプローチするのかということを、この後のカンファレンスではディスカッションしてお聞きしたいと思います。

 3.ビデオメッセージ
  村井:(ビデオメッセージ)これからどうなるかを考えたとき、やはりまだまだ大きな計算を素早くユーザーに返す、分散処理が発展していくと思います。そこで日本はどこへ向かうかというと、今の言葉でエッジコンピューティングになりますが、基本的には、機械と人間の間を高度なAI処理をして、人間に貢献するということです。イメージとしては人間のために身近で活躍する、鉄腕アトムのような自立ロボットです。この緻密なロボティックスと正確な計算は、日本のお家芸です。もう一つは自然言語処理で、日本語のデジタルデータがどれだけきちんと保管されて、アクセス可能となり、処理が可能になるか、そこから生成できるものは何か、これも考えるべきです。産官学が力を合わせて、この日本語のデータを整備すること、高度な分散システムを作ること、そして一番期待されているのは、やっぱりDFFT(Data Free Flow with Trust)のTです。トラストのある社会の中で、精度の高い処理をする。このどちらについても日本は大変大きな力を持っており、大きな貢献ができると期待をしています。

 4.カンファレンス
  中村:政治経済、教育、コミュニケーションや創作活動など、既存の文明を塗り替えるAIの開発や利用が期待される一方、人の能力を凌駕するAIに対し危惧や懸念の声も出ています。そのあたりを皆さんがどのように捉えているのか、プレゼン、ステートメント、問題提起を聞いていきたいと思います。

  庄司:生成AIの活用と規制について、193の大学及び学部について調査した結果、全面禁止は1割ほどで、ほぼ「生成AIの結果のみで提出するのはよくない」などの言い方に留まっています。一部の大学の表現は「安易に使うな」「AIに隷従してはいけない」という倫理的非難を含んでおり興味深いです。しかし我々人間には、利便性の高い道具が登場すれば結局取り入れてきた歴史があり、その流れでいけば数年後には、AIを使うのが標準となる世の中が想定されるわけで、「AIを使う=楽をする」という価値観を変えていく必要があると思います。

  鳥澤:生成AIの出現を産業革命になぞらえた楽観論を目にしますが、個人的な見解としてはそのようなスタンスの解釈には懐疑的であります。過去の産業革命と比較するならば、単純に考えても今回の生成AIはパラメーターが多くて蒸気機関、内燃機関などに比べてはるかに複雑なシステムで、なぜこのように動くのかというところがわからない部分も多いため、わからないことすらわからない(Unknown, Unknown)状況に陥ってしまう可能性も含めて議論し、考えていかなければいけないとおもいます。今後、正体不明の野良生成AIの出現など、多くの生成AIが出てくる可能性も高いと思いますが、そうした野良生成AIが作り出す偽情報・不適切な情報で社会が満たされてしまう可能性もあります。それらへの対処として、一定の水準を満たす多様な生成AIが互いに議論を行い相互にチェックをして、その結果を受け人間が意思決定するという、民主的AIの世界の構築のように、一段ハイレベルで抜本的な対策を考えていかなければいけないと思います。

  橋田:現在のAIの潮流やこれまでの議論を踏まえると、まず今後あらゆるデータがAIにとって扱いやすい形式になってくる(AIオプティマイゼーション)可能性があるとおもいます。また、様々なサービスやコンテンツは個人用のAIに集約されAIが個人用ポータル(パーソナルAI)になることが予測される。各個人に専属して尽くすAIが新しいビジネスモデルになるでしょう。本人のパーソナルデータ全てが集約されるので、当然リスクも大きい。そのためパーソナルデータを本人の同意でサービスの監査者に集め、監査者がそのデータを分析することで各AIが利用者に与えるメリット、デメリットを検証する体制が求められます。そのためには介入のデータが必要です。介入とは例えば、ChatGPTの出力が人間の目に触れるという事象が介入に値します。加えてそこから生じたアウトカム(成果)のデータが両方揃って、各サービスのメリット、デメリットを分析することができます。このようなAIを前提としたデータの形式やその集約、利活用を踏まえ、多面的な観点からガバナンスの体制などを議論し作り上げていくという事が必要であると考えております。

  神薗:イドラインから踏み込んだ、実際のオペレーションなどを意識した手順や実装方法がないというのが大きな課題と考えております。そのような文脈の中でAIのハードローとソフトローをどう整理しどこを境界とするか、仮に規制を作ったとして、それがうまく実行できているかのモニタリングと、規制をしたか否かで、国や組織の経済的格差がどれだけ生じるかも同じくモニタリングする必要があると思います。最近、AIで生成されたものを証明することが求められ、AIの証明検証にはトラストサービスが必要ですが、国ごとに制度や準備が異なり、日本もそこを考える必要があると思います。
 またEUでは先ごろAIシステムに対し、ハイリスク、限定リスク、最小という制限や補足が制定される「AIアクト」が可決しています。このAIアクトの評価項目に対して、世の中の生成AIがどの程度準拠しているかという事を分析したレポートがスタンフォード大学から発行されております。生成AIに対するその時点での評価もさることながら、このようなチェック・評価が社会の中に普及していく事が重要だと思っていますしAIの生成側とプラットフォーマー側が説明責任を果たし、利用者が正しいルールメイキングをしてそれを使うことがAIの発展に貢献できると思います。

  谷脇:生成AIに関して政策の観点から大きく三つに整理すると、一つ目はAI の運用原則を現実にどう適用するか。二つ目は、AIによってパーソナライゼーションが加速するなか、どこかで第三者の評価を行う事を視野に入れておく必要があること。三つ目は安全保障の観点です。昨年12月の防衛力整備計画に書かれた「AIを活用し認知戦を戦っていく」との記述を、日本はどう政策に落としていくのか。特にG7広島プロセスの中で、偽情報を含む外国からの情報操作への対応が挙げられたことについて、どういう方針で臨んでいくのか、早急に議論が必要と考えております。全体を整理すると、まずはAIを使うことを前提とし、議論するタイムスコープを合わせなければいけないと思います。その中でも優先するのは人権の問題、安全保障に関する議論です。規制についてはAIは進化するムービングターゲットでありますので、ソフトローや技術実装を含め柔軟に考える必要があります。それからAIの問題は価値観に関わりステークホルダーが非常に広くいため、テックコミュニティにとどまらず、宗教界等も含め幅広く議論する場作りが大事なのではないかと思います。

  中村:AIの孕むリスク、あるいはそれをいかにコントロールするかにつて、2、3年という短期で見た場合、我々が考えるべき具体的なリスク、差し迫ったリスクについて皆さんはどう見ているか、お聞きしたいと思います。

  庄司:我々自身、その生成AIに何ができて何ができないのかについて、誤った理解に基づき議論するリスクがあると思います。不安が先に立ち、立ち止まるのが日本の特徴で、大学においても「倫理的な意味合いでも、やめておけ」というスタンスになるのが良くないと思います。

  鳥澤:AIに学習させるためのウェブページのデータが、生成AIが作り出した偽情報で汚染されてくると、さらに混乱した状態になりかねません。そうなると質の低いAIに、優秀なAIが引っ張られる現象も起こり得るでしょう。なので、きちんと人間が書いたものを学習データとして使うことやそのための仕組みづくりも考慮しないといけないと思います。

  橋田:政府や情報機関が出した文書には電子署名をつけるといった仕組みが議論されており、教育用のAIはそのようなお墨付きの付いたコンテンツ、データからの学習を義務付けることも必要だと思います。さしせまったリスクとしては、クリエイターという仕事の位置付けがここ2,3年で非常に不安定になることが予想され、そちらの方が心配です。

  神薗:AIを診断として使うのはよいとして、AIによって脆弱性を発見し、そこにサイバー攻撃を仕掛けることはAIが先行する領域ですし、計算資源の大きいところが強くなる傾向がありますので、そこが大きな課題になってくると思っています。

  谷脇:デジタル技術は、ときに平和利用、ときに軍事にも使えます。デュアルユースはいけないと言ってもあまり実効性がなく、その良し悪しを判断するのは大変難しい。それから欧州の「AIアクト」ですが、リスクを分類してリスク評価をかけていますが、そのリスクが社会的に許容できるものかどうか、客観的な分かりやすいデータで示されれば望もましいと思いますが、ハードルが高い気もしております。しかしそのハードルを越えられると、AIが競争環境でサービス提供をしていて、伝統的な競争理論が機能する側面もありますので、そのような世界を期待したいとは思っています。

  中村:リスクや問題に対し規制はするべきなのか、するとした場合、どのような主体が、どうルール化するべきか、そのあたりを規制、ルール化、あるいは国の介入というところで、お考えがあれば聞かせてください。

  庄司:米国・EU・中国などとは異なり、豊富なデータ資源、電力や計算機の資源、人材などが不足している国々にとっても、受け入れ可能なルールを議論するべきだと思います。私はDFFTというコンセプトもそのような立ち位置を取りうるもので、日本はそのような第4の立場に行くのが生き残る道ではないかと思っています。

  鳥澤:この類の規制やルールを考えたときに、簡単に国境を越えて押し寄せてくるため、例えばGDPRのような他国の法律との整合性を考えた時、一番きついところに合わせないといけない話になります。また、日本の弁護士さんも外国の法律にまで精通しておられる方は限られるようで、対応できないことの方が多くなってしまいます。その辺も含めて、日本が主体的にアジャイルに動ける体制を整えていかないと乗り切れないのではないかと思います。

  橋田:拡張されたデータポータビリティが介入のデータを含むことによってサービスを評価できます。ただ個人、本人が同意すれば、データを集めて分析できるので、「このサービス、AIは本当に良いことをしているのか」を誰でも検証、監査することができます。大学や民間企業、研究所などでも監査が可能なので、お互いにその監査結果をチェック&バランスによって検証して、ボトムアップにトラストを形成していくという、非常に民主的な運営ができるのが重要です。監査以外にもサービスの改良、開発にも使えるので同時に産業振興にもつながります。

  神薗:アジア圏の研究者の方と話をすると「自分たちのデータは日本に置きたい」と言われること多く、やはり日本のブランド力は健在で、AIについても日本の良さをうまくルールメイキングできる形をとっていくこと、そういう役目を果たすことが、やはり日本の勝ちパターンなのではないかと思います。また、先ほどのスタンフォードが発表している生成AIの評価、という役目を果たすことも日本の一つの立ち位置を考えるポイントだと思っております。

  谷脇:生成AIが普及し始める前からプラットフォーマー規制論みたいなものは当然欧州にもあるし、日本でも取り組みはしていますが、AIの分野でもそういった規制は必要なのかもしれません。ただし、Web2.0からWeb3という分散型の光が見えてきている世界の中で、そのような規制論に終始することは気にしております。それから中国が話題になりますが、旧西側諸国対覇権主義国家の違いというものが、AIの世界でも如実に見えてきた感があります。この2つの、ある意味主義の異なるAIが今後は並び立っていく、サイバーシームレスな世界なので、国境を越えて丁々発止とやり合う世界の中で議論をしていかなければいけないと感じています。

  中村:日本ではルール化、規制化と同時にAIを盛り上げていく中で、研究開発について今後どういうスタンスで、どこに力を入れて、誰が主役になって、どう進めていけばいいのかを、鳥澤さんと橋田さんに伺いたいと思います。

  鳥澤:Open AIも詳細は公開しないので、再現することは難しく、我々日本は試行錯誤が非常に重要だと思っています。やってみないと分からないことだらけで、学習の設定を間違えると、途中でうまくいかなくなります。やはり1つの機関だけでは難しく、民産官学で情報を共有しながら良い方法を見つけていかないといけません。著作権法や個人情報法などの壁がありますが、できればデータは共通のものを使い、情報を共有した方がよいです。ただし、フルオープンにすると日本のことをよく思っていない人たちが日本語の生成AI等を作り出して、悪用してしまう心配もあるので、そのあたりは国全体で、総力をあげて試行錯誤できるように考えてもらいたいと思います。

  橋田:先ほど話したパーソナルAIやパーソナライゼーションを、一気に推し進めるのも一つの手です。利用者がAIに全幅の信頼を置いて、あらゆるデータをAIに使わせて一番最高のサービスを提供してもらう方が、断然利用者受けもするし、ビジネス的にも儲かるはずです。少しでも利用者にメリットのある運用を考えれば、自ずと利用者の秘密を絶対に漏らさないパーソナルAIになっていくだろうと思います。しかしリスクも大きいので、ガバナンスの体制を作りながら、パーソナライゼーションの方に誘導していく、それによってガバナンスをより完璧にして、かつ価値を高めるということを日本はやっていけたらいいと思います。

  中村:最後もう一つ、特に教育分野においてAIの利用を促進するにはどうしたらいいでしょうか。

  庄司:教育現場では、多少自由な利用が許される枠はあると思います。AIで文章を生成したときに著作権侵害の可能性もあり得ますが、本人は意識していないので、依拠性がないともいえます。ですからルールが整うまでは、基本的には自由な利用を認めておいた方がいいと思います。やはり日本の強みはユーザー文化です。特に若い人たちはネット上が全てという側面がありますので、著作権や個人情報に対する遊びのある世界で、いろんなものを生成してほしい。その中からひと昔前の初音ミクが出たとか、ニコニコが出たとか、サンドボックス的なものを用意できたらいいと思います。

  中村:パーソナルなAI家庭教師が出てくると、やがて教師の必要性が薄くなるのではないでしょうか。今後の教育の変化、あるいは教師の役割をどう見ておられますか。

  橋田:今のAIには膨大な知識を集約することはできますが、その知識の応用を少しできるぐらいで、その知識を使って評価するとか創造するとかいうことはできません。だから当分の間は、人間が主でAIが従です。ただAIでも単に教科書を教えるぐらいはできるので、それによって教育が大きく変わることは必然だと思います。かといって、それで教師が全てAIに置き換わるわけではありません。人間の教師の役割とAIの役割をどうするかは今後の課題だと思います。

<資料ダウンロード>
  菊池尚人  デジタル政策財団理事(pdf)
  花光宣尚  慶應義塾大学大学院 特任助教(pdf)
  神薗雅紀  デロイトトーマツサイバー合同会社サイバーセキュリティ先端研究所  所長
        兵庫県立大学客員   准教授(pdf)
  谷脇康彦  デジタル政策フォーラム  顧問(pdf)
  鳥澤健太郎 情報通信研究機構 フェロー(pdf)

・主催者など
 【主催】
  デジタル政策フォーラム https://www.digitalpolicyforum.jp/
 【共催】
  一般社団法人CiP協議会 https://cipcipcip.org/
  デロイト トーマツ ファイナンシャルアドバイザリー 合同会社
 【事務局】
  一般財団法人デジタル政策財団

一覧に戻る