最先端のWebマーケティングを発信するメディア

最先端のWebマーケティングを発信するメディア

生成AIの問題点やリスクとは?具体例や対応策を紹介

投稿日:

AI

SHARE
FacebookTwitterLineHatenaShare

生成AIの登場によって、業務の効率化や新たなサービスの登場など、多くの技術革新が生まれました。しかしその一方で、機密情報の漏洩や著作権侵害のように多くの問題点やリスクを抱えていることも事実です。

本記事では生成AIが抱える問題点・リスクを具体例も交えながら紹介するとともに、リスクマネジメント方法や行政が作成した活用ガイドブックなども解説します。

紹介する情報を参考に、生成AIの課題と向き合いながら、さらなる発展に役立ててください。

生成AIの問題点やリスクとは

特別なスキルがなくても簡単にテキストや画像の作成が可能な生成AIは、業務効率を向上させるツールとして多くの企業で使用されています。

しかし、さまざまな問題やリスクも抱えており、日本を含む多数の国で警鐘を鳴らしていることも事実です。問題点を知らずに生成AIを使用すると、損害賠償を請求されるなどの事案も起こるかもしれません。

生成AIがどのようなリスクを抱えているのか、大きく三つに分けて解説します。

著作権や商標権などの権利侵害

生成AIが抱える問題点のひとつが、著作権や商標権などの権利侵害です。総務省でも、生成AIによるリスクとして著作権を挙げており、知的財産権の取り扱いなどの議論や注意喚起が行われています。

生成AIから生まれるデータはインターネットで公開されている情報から学習したものであり、元になっている情報の中には著作権・商標権などで保護されたものも多く含まれている場合があります。

現在の著作権では、データの分析を目的として生成AIに著作物を入力する行為は、侵害に該当しません。しかし、生成データと既存データの間に「類似性」や「依拠性」が認められる場合は、著作権侵害になる可能性があります。

個人情報や機密情報の漏洩

個人情報・機密情報の漏洩も、生成AIが抱えるリスクのひとつです。

生成AIを使用する際には、初めにプロンプトを入力しなければなりません。しかし、プロンプトに秘匿性の高い内容や個人情報などを検索条件として入力してしまうと、AIは与えられた内容を学習情報として取り込んでしまい、拡散・流出する可能性があります。

実際に、2023年にはサムスンの社内ソースコードが流出したとして大きな話題になりました。このようなリスクを防ぐため、業務で生成AIを活用する際は、個人情報や機密情報を入力しないように社内の教育を行ったり、社内用にクローズド環境を構築して、社外に流出しない仕組みを整える必要があります。

ハルシネーションの発生

ハルシネーションとは、誤った内容を整合性の取れた正しい情報であるかのように生成AIが検索結果として表示してしまうことです。

生成AIの学習データの大半はインターネット上の情報であり、これらはすべてが正しいとはいえません。AIはそれが誤情報であるかどうかの判断をしないため、ハルシネーションが発生してしまいます。

また、質問に対する正しい回答がネット上や学習データから見当たらない場合、その時点で保有している情報からもっともらしい内容を作り出して回答してしまう点も生成AIの特徴のひとつです。

表示される内容・文章は整合性が取れており、回答としての違和感がほぼないため、必ず人間の目でソース元を確認する必要があります。

ディープフェイクの悪用

ディープフェイクの悪用も、生成AIにおけるリスク・問題点といえるでしょう。実際に、海外では選挙期間中に生成AIを使用したディープフェイク動画が拡散され、多くの有権者が混乱しました。

生成AIで作成する画像・動画などのデジタルコンテンツの精度は格段に上がっており、実際の映像・画像と遜色ないレベルにまで達しているのが現実です。一般人がディープフェイク動画を見ても、それが偽りであると気づくことは難しいでしょう。

このようなディープフェイクを悪用して特定の人物を誹謗中傷する動画が作成・拡散される事件は、国内外を問わず起きています。

プロンプトインジェクションのリスク

プロンプトインジェクションとは、悪意のあるユーザーが誤作動を起こすようなプロンプトを入力することで、本来意図しない出力を生成させるものです。利用者側ではなく、サービスを提供する企業・会社側が抱えるリスクのひとつといえます。

提供者側は、住所や氏名のような個人情報や秘匿性の高い機密情報に対して制限をかけているため、本来であれば生成AIが回答として表示することはありません。

しかし、利用者のなかにはこのような制限されている情報を引き出そうとする人も存在し、プロンプト入力を工夫して設定されている制限をかいくぐろうとします。

制限している設定を突破されてしまえば、その情報が犯罪などに使われる可能性があり、サービス提供者は社会的信用の損失などのリスクを負うことになるでしょう。

生成AI自体のセキュリティリスク

提供者側が抱えるリスクとして、生成AI自体のセキュリティリスクも挙げられます。

近年の生成AIは、複雑な計算方法によって膨大な情報の処理を行っています。複雑になればなるほど、設計段階で重大な情報セキュリティの欠陥が発生する可能性が高まり、その部分を突かれて不正アクセス・データ改ざんなどのリスクが増してしまうのです。

もし不正アクセスやデータ改ざんが発生してしまうと、社会的な混乱や誤情報の拡散を引き起こす恐れもあります。そのため、開発の段階でデータの匿名化や暗号化、アクセス制御の強化、定期的なセキュリティ監査が欠かせません。

ファクトチェックなどによる稼働の増加

サービス利用者の課題として、ファクトチェックなどによる稼働の増加も挙げられます。

生成AIは膨大なデータをもとに質問に対する答えを作成して表示しますが、その根拠となった情報源は不明瞭です。ハルシネーションのように、元データが誤っていたりもっともらしい回答を勝手に作り出していたりする可能性はゼロではありません。

GPT-4以降のChatGPTは情報源が表示されるようになりましたが、公的な情報源だけを取得しているとは限らないので、そもそも情報源が正しい情報を発信しているのかも確認が必要です。

時間短縮のつもりで使用した生成AIの回答のファクトチェックに時間などが取られてしまっては便利ツールとは言えなくなるため、その有効性などを考え直す必要が出てくることもあるかもしれません。

生成AIが制作したと判断できない場合がある

生成AIで制作したものかどうかを、閲覧者が判断できない場合がある点も、状況によっては問題点といえます。

例えばWebコンテンツの作成において、生成AIの使用を禁止しているケースは少なくありません。しかし、クリエイターがAIを使用していてもクライアント側が気づけないケースはあります。生成AIかどうかを判定するツールも存在しますが、ツールを使用しても判断できない場合もあるでしょう。

内容によっては、コンテンツの信頼性が損なわれるリスクもあります。そのため、生成AIの利用に関する明確なガイドラインの策定や、判定ツールの精度向上が求められています。

導入における初期・運用コストの発生

最後に紹介する問題点は、ライセンス料などの初期導入コストと、サブスクリプション料金や保守料金などの運用コストが発生する場合があることです。

ChatGPTなら無料で利用できますが、一日の使用量が制限されていたり、業務に合わせたカスタマイズができなかったりします。そのため、生成AIを業務やビジネスで利用するためには、コストの発生が避けられないのです。

コストを抑える手段としては、補助金制度やアジャイル開発などによる開発コストの削減が考えられます。AI活用融資やIT導入補助金などの補助金を活用することで負担を抑え、アジャイル開発を採用することで、必要な機能を段階的に構築できます。

費用対効果の検討も重要です。導入による業務効率の向上や人件費の削減などを明確にし、ROIを算出することで、導入するメリットがあるのかを判断できます。

生成AI問題の具体例

生成AIが抱えるリスクを紹介しましたが、国内外では実際に問題が発生しています。具体例は以下の通りです。

  • サムスンの社内ソースコード流出
  • 香港でのディープフェイクによる現金詐欺
  • 福岡の自治体後援サイトにて実在しない観光名所紹介

実際にどのようなことが起きたのか、それぞれ解説します

サムスン:社内ソースコードの流出

サムスンでは、従業員が社内情報のソースコードを最適化および議事録を作成するため、コードや録音データをChatGPTに入力してしまったという事故が発生しています。

ChatGPTを始めとする生成AIが入力されたプロンプトを学習に活用します。そのため、機密情報が学習に使用され、外部に流出するおそれがあるのです。

本来、サムスンでは機密情報の流出を防ぐために「私的な内容の入力禁止」という制限を設けていました。そのため、社内ソースコードの流出は人為的なミスと言えます。

その後、サムスンではプロンプトのデータ量を制限し、社内ベースのAIサービス構築を進めています。生成AIを活用する場合は、システムとして事故が起きないような体制を整えつつ、人員の教育が欠かせません。

香港:ディープフェイクによる現金詐取

香港では、生成AIを使用したディープフェイクによる現金詐欺が発生しました。生成AIを使って現実には存在しない人物を作成し、交流サイトを通じてロマンス詐欺を行ったというものです。

この詐欺には有名大学卒業者などの複数が加害者としてかかわっており、生成AIで作成したフェイク画像を送信して複数人から多額の現金をだまし取っていました。

繰り返し交流する中で投資を持ち掛けられ、利益どころか元本さえも取り戻せない状態になるまで騙されていることに気付かなかったと、被害者たちは警察に語っています。

被害総額は60億円を超えるとされており、問題点・リスクで取りあげたディープフェイクの悪用を裏付ける事例といえるでしょう。

福岡:自治体後援のサイトで実在しない観光名所を紹介

生成AIの抱える問題点が顕著になった事例は海外だけではありません。日本では、福岡県の魅力を紹介する自治体後援サイトにて、実在しない観光名所が紹介されて問題になりました。

Web制作会社が福岡県を応援するキャンペーンサイトを立ち上げ、ご当地グルメや観光地を紹介していましたが、そのなかに誤った観光情報が含まれているとの指摘を受けてサイト自体の閉鎖に至ったのです。

閉鎖について「不信感を与えたため」との理由を挙げていますが、紹介記事は生成AIで作成したものであったとのことです。

生成AIのリスクとしてハルシネーションを取り上げましたが、この事例はその典型であり、ファクトチェックの重要性を明確にしたともいえるでしょう。

生成AIの問題点への管理・リスクマネジメント方法

生成AIはさまざまな方面での問題点・リスクを抱えていますが、これらの解決・回避には管理・リスクマネジメントが欠かせません。

具体的なリスクマネジメントの方法としては、以下のようなものがあげられます。

  • 著作権侵害リスクの少ない生成AIの使用
  • 環境整備
  • 専門家の導入

それぞれの管理方法をくわしく確認します。

著作権侵害リスクの少ない生成AIを使用する

生成AIが抱える問題・リスクの回避・解決策として、著作権侵害の危険性が少ない生成AIの使用が有効です。

Adobe社が運営するAdobe Fireflyのように、使用許諾を得ている、もしくは著作権が切れた画像のみを使用して新たな画像を生み出すというサービスも存在します。また、近年では著作物との類似性を抑えるための手法も、学術論文として提案されています。

著作権の問題は、画像だけではなくテキストや音声など、幅広い分野で課題として挙げられています。生成物をチェックするのはもちろんですが、そもそも著作権侵害リスクを抑える仕組みを導入することも重要です。

セキュア環境の整備やオプトアウトの設定

セキュア環境の整備とオプトアウトの設定も、生成AIに対するリスクマネジメントでは欠かせない要素のひとつです。

セキュア環境の具体例として、不正アクセスの監視・検知が挙げられます。社外からのアクセスや不正なデータの改ざん・持ち出しなどを未然に防ぐとともに、そのような事象が発生した場合には直ちにシステムそのものが停止するなどの対策を講じなければなりません。

また、プロンプト情報を学習データとして使用しないオプトアウトの設定しておくことで、誤って機密情報を入力してしまった際にも情報漏洩のリスクが軽減されます。

サムスンの事例でも、オプトアウトの設定をしておけば、ソースデータを入力しても内容が外部に漏れる危険性を回避できた可能性があります。

チェック体制や専門家を導入する

チェック体制や専門家の導入も、リスク回避・問題解決の有効な手段です。

生成AIで作成されたデジタルコンテンツが著作権などを侵害していないかどうかのチェックはもちろん、その内容が正確なものであるファクトチェックも行わなければなりません。これらの確認には時間・労力が必要であり、チェックを専門に行う部署などを設置する必要があるでしょう。

近年では生成AIに特化した弁護士も登場しているので、顧問契約を結んでおけば問題が発生したときに心強い味方になってくれます。

これらの導入は決して容易なことではなく、コストも必要です。しかし、問題が起こった場合に発生するリスクは、導入時にかかるコストの比較になりません。回避が困難な事象が発生する可能性もあることから、導入を検討する意義はあると考えられます。

行政が公表する生成AI活用のガイドブック

経済産業省では「令和5年度コンテンツ海外展開促進事業(コンテンツ産業における先端的技術活用に関する調査)」をもとに「コンテンツ制作のための生成AI利活用ガイドブック」を作成しました。

経済産業省のホームページからPDFのガイドブックファイルのダウンロードが可能であり、ゲーム・アニメ・広告産業の利活用ケースをはじめ、関係省庁のガイドラインなども掲載されています。

利用する前に内容を確認しておけば、前述した問題点のリスクマネジメントの重要性を再認識するとともに、具体的な対策方法も見えてくるでしょう。

>>>生成AIガイドラインとは?文部科学省や総務省、東京都のサンプルを紹介!

生成AIの問題点は身近に存在なものとして対策しよう

生成AIは、誰もが手軽に利用できる便利ツールとして多くの企業・シーンで活用されていますが、問題点やリスクは数多く内包しており、法の整備もまだまだ十分とは言えません。そのため、仕組みと教育の両面からリスクを回避する体制を整える必要があります。

リスクがあるから使用を避けるのではなく、どうすれば適切に使いこなせるのかを考えながら活用することで、業務の効率化や新たなビジネスチャンスを生み出せることでしょう。

生成AI自体はまだまだ生まれたばかりの技術です。今後のさらなる進化とともに、新たな可能性が広がることが期待されます。

SHARE
FacebookTwitterLineHatenaShare

UPDATE 更新情報

  • ALL
  • ARTICLE
  • MOVIE
  • FEATURE
  • DOCUMENT