1.データ漏洩の種類
AIモデルの学習に機密情報を使用する
個人を特定できる機密情報をAIモデルの学習に使用した場合
第三者が閲覧できる恐れがある
カスタマーサポート用のAIチャットbotをトレーニングする目的で、
顧客データベースから収集したデータを使用する場合、
トレーニング前に顧客の氏名や住所を削除するか匿名化しないと、
情報が漏えいする可能性がある
AIモデルが過学習を起こす
AIモデルが特定の学習データを過剰に学習すると、
そのデータに関しては回答精度が高まる一方、
未知のデータに関しては回答精度が高くならない
学習データを再現して出力してしまう場合があり、
データの漏洩につながる
売り上げを予測する目的で、
過去の売り上げデータを学習させたAIモデルの場合、
過学習した結果、AIモデルが将来の売り上げを予測する代わりに、
実際の売り上げ記録から具体的なデータを出力してしまう可能性がある
ユーザーが過去の売り上げ記録にアクセスする権限を持っていなくても
AIモデルが出力した過去の売り上げ記録を入手できてしまう
サードパーティーのAIサービスを利用する
独自にAIモデルを構築する代わりに、ベンダーのAIサービスを利用すると
通常、学習済みのAIモデルを基にしているが、
ユーザーが独自のデータを追加で学習させる場合
独自のデータをベンダーに開示することになる
ベンダーのデータへのアクセスを許可し、適切に管理している限り
データが漏洩することはないが、
意図せずにベンダーに機密情報へのアクセスを許可したり、
ベンダーがデータの管理を怠ったりすると漏洩の可能性がある
プロンプトインジェクション攻撃を受ける
攻撃者が悪意のあるプロンプトを入力してエンドユーザーをだまし、
データを盗む手法
データのアクセス権限を部署ごとに付与している場合、
他部門の人間は他部門のデータは閲覧できないようになっている
しかしプロンプトに他部門のデータが必要と入力すると、
ツールの入力チエックが不備だと、情報が漏洩する可能性がある
サイバー攻撃を受ける
サービスの大半は、エンドユーザーとの通信にネットワークを利用する、
AIモデルの出力結果がネットワーク上で暗号化されていない場合、
悪意のある第三者が傍受してデータ漏えいにつながる可能性がある
このリスクは生成AI特有のものではなく、
ネットワーク上でデータを送信する個々のアプリケーションで発生し得る
悪意のある第三者がデータを漏洩する
人間が意図してデータを漏洩させる
チャットbotの会話履歴がデータベースに保存されていると、
悪意のある第三者がデータにアクセスする恐れが出てくる
2.漏洩対策
学習前の機密データを削除する
学習データから機密情報を削除すれば、漏えいのリスクは低減する
機密情報を利用する場合には適用できない
AIベンダーの取り組みを精査する
ベンダーのAIサービスを使用する際は、ベンダーの取り組みを精査する
サービスが企業のデータをどのように使用、保護しているか、
データを安全に管理してきた実績があるかどうかを確認する
データの出力を制限する
出力するデータを監視し、ユーザーが入手できる出力結果を制限する
AIモデルの出力結果から不適当なデータをフィルタリングする、
ユーザーが機密情報にアクセスできなくなる
サードパーティーのAIサービスの利用を制限する
リスクの検証ができていないAIサービスをブロックする
会社内では使用しなくても、私用デバイスで使用する可能性が残る
ITインフラを保護する
出力結果が暗号化されていない場合、漏えいにつながる可能性がある
デフォルトでデータの暗号化を行う
脆弱性が存在するサービスへのアクセス権限を最小限にとどめる