要約
2022年の後半ころからAIのリスクについてのニュースが増えてきましたが、AIによる新たなリスクに向き合っていくために、chatGPTに代表される大規模言語モデルのリスクや画像生成AIのリスクについて整理し、政府のAI戦略会議が最近取りまとめたリスクと論点整理の内容を紹介します。
本文:生成系AIに伴う新たなリスク
本ブログではこれまでリスクのトレンドを調査して報告してきました。2020年以降のリスクに関するトピックは多くが新型コロナウイルスに関連するものでしたが、2022年の後半になり、「AIのリスク」がトレンドに載ってきました。2022年の後半は画像生成AIのMidjourneyやAIチャットのchatGPTが登場し、AIの活用が新たな時代に入ったと言えます。
AIのリスクについてはこれまでに、「AI農業のリスク」ということでまとめた記事があります。これは2022年の8月に公開したもので、AI新時代突入の直前くらいに書いた記事ですが、農業でのディープフェイクの悪用や、農業デマをまき散らすAIボットなど、わりと現在の予言的な内容となっています。
さて、画像生成やchatGPTに代表される大規模言語モデル(これらをまとめて生成系AIと呼びます)の登場により新たなAIリスクが誕生しています。最近のニュースを取り上げてみましょう。
ロイター:マスク氏ら、AI開発の一時停止訴え 「社会にリスク」
米実業家イーロン・マスク氏や人工知能(AI)専門家、業界幹部らは公開書簡で、AIシステムの開発を6カ月間停止するよう呼びかけた。社会にリスクをもたらす可能性があるとして、まずは安全性に関する共通規範を確立する必要があると訴えた。
The Gardian: Darktrace warns of rise in AI-enhanced scams since ChatGPT release
サイバーセキュリティ企業ダークトレースは、ChatGPTのリリース以来、従業員を騙したり企業にハッキングしたりするためのより高度な詐欺を作成するために人工知能を利用する犯罪者が増加していると警告した。
(Googleで日本語に翻訳)
ギズモード:サムスン、機密情報をChatGPTにリークして大問題に
Samsung(サムスン)は、少なくとも3つの事例で同社の機密情報をOpenAIのChatGPTに流出させたとして大問題に。
サイバーセキュリティ企業のCyberhavenが行った最近の調査では、3.1%の人が1度は会社の機密情報をChatGPTに入力していることが明らかになりました。
オリコンニュース:『週プレ』“AIグラビア”さつきあい写真集が販売中止 さまざまな意見寄せられ決断「より慎重に考えるべきであった」
本企画について発売後よりたくさんのご意見を頂戴し、編集部内で改めて検証をいたしました。その結果、制作過程において、編集部で生成AIをとりまくさまざまな論点・問題点についての検討が十分ではなく、AI生成物の商品化については、世の中の議論の深まりを見据えつつ、より慎重に考えるべきであったと判断するにいたりました
このように生成系AIのリスクに関するニュースが増えてきたところで、本記事ではchatGPTに代表される大規模言語モデルのリスクや画像生成AIのリスクについて整理し、最後に政府のAI戦略会議が最近取りまとめたリスクと論点整理の内容を紹介します。
chatGPT(大規模言語モデル)のリスク
最初にchatGPTに代表される大規模言語モデルのリスクを整理していきましょう。冒頭にすでに詐欺への悪用や機密情報の漏洩について紹介しました。そのほかにはどのようなリスクがあるのでしょうか?
chatGPTが嘘八百を吐き出すことはよく知られています。本ブログの過去記事でも事例を紹介しています。
また、以下の記事では風評を引き起こす偽情報を吐き出す例が紹介されています。意図的にしろ、非意図的にしろ、このような情報が出回ると大変なことになります。
東洋経済ONLINE:偽情報で「加害者」にされる!「AI悪用」の防ぎ方
例えば、カリフォルニア州の弁護士が調査研究の一環として、生成AIに「誰かにセクハラした法律学者のリストを生成する」ように指示したところ、実在の法学教授の名前がリストに載っていたという事例が報道されています。さらに、情報源としてワシントンポストの 2018年3月の記事を引用し、アラスカへの修学旅行中に性的なコメントをしたり、学生に触れようとしたと出てきたとのこと。実際には、その記事は存在せず、アラスカへの修学旅行も含めてそのような事実はありませんでした。
結局のところ、私もchatGPTをいろいろ使ってみた結果感じていることは、出てきた情報の真偽を判断できない人にとっては正しく使うことができないツールである、ということです。
自力でもその出力を出すことはできるけれども、AIにやらせたほうが時短になるので生産性が上がるわけです。自分ではできないことをAIにやらせても、出力されたものが正しいのかわからないので、その状態のままで使うと偽情報によるリスクが顕在化してしまいますね。
出てきた情報が正しいかどうか裏を取れる人はそもそもかなりの訓練を積んでいる人です。一方で、出てきた情報が自分にとって都合がよいと真偽も確かめずにすぐに飛びついてしまう人もSNSなどでよく見かけます。
こうなるとできる人はAIで生産性を上げられる一方で、できない人は偽情報に振り回されてますます格差が開いてしまうことになります。格差の増大は社会のリスクの一つとなります。
画像生成AIのリスク
次に画像生成AIのリスクを考えていきましょう。冒頭でAIグラビア撤退について紹介しましたが、なぜ撤退したのかの理由がよくわかりません。おそらく、実験的な試みとして発売し、SNSなどで炎上が見られたら即撤退することを最初から決めていたのではないでしょうか。
ただ、どのようなリスク評価をして、どのようにこれは社会が受け入れられると判断したのか、などの情報を出したほうが、より今後に向けてのよい議論につながったのではないかと思います。やってみて「はいダメだったね」だけで終わると次の道が見えてこないでしょう。
このことは本ブログの過去記事でも書いたように、法律の規制などが追い付かない新規のリスクにどう対応するか、という場面ではリスクベースのアプローチが必要です。
画像生成AIの問題点は学習データの問題と生成された画像が著作権を侵害することの2点です。
学習データの問題とは、インターネット上の画像が無断で学習されていることです。これは現時点で日本の法律的には規制がありません。人が既存の画像で学習するのは当然ながら違法ではありません。AIにも同様のことが適用されます。
ところが、違法でないから何をやってもよいのかというとそうではありません(これも上記のアジャイルガバナンスの記事で書いています)。SNSを見ていると多くの人がAIに無断で学習されることに強い拒否感を持っていることがわかります。人が学習するのはOKでAIはダメという理由はよくわかりませんが、このような心理を無視していると炎上を招くことは覚えておいたほうがよいでしょう。違法ではないにしてもコンプライアンスの問題として学習元の開示などが必要となるでしょう。
また、生成された画像による著作権侵害についても、これまでと同様にAIかどうかは関係なく、生成した画像に「類似性」「依拠性(類似な画像に接していたかどうか)」「過失・故意の有無」があれば著作権侵害になります。この辺詳しくは以下のサイトに書かれています。
結局のところ、画像生成AIというものが著作権侵害を容易にそして大量に行うことができてしまうツールである、ということが「リスク」になるわけですね。
私も最近はブログのアイキャッチ画像としてAI生成画像を使うことが増えてきましたが、必ずGoogleの画像検索で生成した画像を検索し、類似のものが出てこないかどうかを確認しています。本記事のトップ画像は著作権フリーの画像を使いましたが、当初はAIで画像を生成し検索をかけたところ微妙に類似な画像が出てきたためボツにしました。最低限このくらいの配慮は必要になると思います。
AI戦略会議の報告書まとめ
政府のAI戦略会議は2023年5月26日に「AIに関する暫定的な論点整理」と題する文書を公表しました。この文書は現時点でのAIリスクについて一通り検討した結果がまとめられており、現状を知るのに適しているでしょう。
面白いのは、AI使用のリスクだけではなく、AIを使用しないことのリスクも考えている点です。リスクがあるからと言って使用をやめてしまえば、それは技術革新に乗り遅れて生産性の低下などさらなるリスクを負う可能性があるのです。
また、AIのリスクを考える際に以下のような透明性と信頼性の開示が重要と述べられています。
・透明性:学習データの由来
・信頼性:入力した情報の扱い、回答の正確性
そして、AIのリスクについては以下の7種類に整理されています:
① 機密情報の漏洩や個人情報の不適正な利益のリスク
② 犯罪の巧妙化・容易化につながるリスク
③ 偽情報等が社会を不安定化・混乱させるリスク
④ サイバー攻撃が巧妙化するリスク
⑤ 教育現場における生成 AI の扱い
⑥ 著作権侵害のリスク
⑦ AI によって失業者が増えるリスク
①は、冒頭に紹介したような、会社の機密情報をchatGPTに入力して、その情報が外部に漏れてしまうリスクです。ほかにも、チャットの会話内容からその個人の嗜好などを分析されてしまったり、顔認証などに使用された顔の画像が他の用途に使用されたりなどの懸念もあります。
②は、これも冒頭で紹介したように、詐欺メールなどの文章をより巧妙に、より短時間で作成できてしまうなどの悪影響があります。また、銃や爆弾の作り方などの情報が入手されやすくなるかもしれません。
③は、chatGPTのリスクで紹介したように、偽情報を意図的に作成できるため社会を混乱させるリスクがあります。また、冒頭に紹介したAI農業に関する過去記事で書いたように、SNSのプロフィールも文章も画像も全部AIで生成して大量にアカウントを運用して利益誘導するなどの悪用も考えられます。AIが偏った生成をすること(CEOと入力して画像生成すると白人男性ばかり現れるなど)による差別の助長もあります。
④は、②と同じでフィッシングメールなどサイバー攻撃の巧妙化・容易化にAIが悪用されたり、AIがサイバー攻撃の方法を指南したりなどのリスクが考えられます。
⑤は、学校において宿題・レポートの回答・作成にAIが使われてしまい、教育効果が減少するなどのリスクがあります。
⑥は、画像生成AIのリスクで紹介したような著作権侵害のリスクです。
⑦は、AIの活用によって業務の進め方や産業構造も変化して失業者が増えるのでは、というリスクです。これもいろんなところで仕事がなくなるなくなると言われてきたところです。ただ、写真が発明されても絵を描く仕事はなくならなかったように、突然これまでの仕事が全くなくなるわけではないでしょう。また、AIが学習するためのデータの必要性は今後も増加するため、人間による文章や画像の生成がなくなることも考えにくいです。
生成系AIを活用する際にはこれらのリスクを考慮して活用方法を考えていくとよさそうです。
まとめ:生成系AIに伴う新たなリスク
chatGPTのような大規模言語モデルについては、出力が正しいかどうかを判断できないと活用のリスクが高まり、活用できる人とそうでない人の生産性の格差は広がっていくことになるでしょう。画像生成AIについては著作権侵害しやすいというリスクがあるツールであるため、活用には事前のチェックが必須となります。
コメント