顧客情報や機密データをAIに入力!他社への情報漏洩リスクは?

質問

ChatGPT等の生成AIに、顧客リストの整理や社外秘の企画書の要約をさせるため、そのままデータを入力してしまいました。AIの学習データとして使われ、他社に自社の情報が漏洩するリスクはあるのでしょうか。

質問者の本音を深堀
便利だからガンガン使いたいんだけど。

ヨリビズ弁護士の回答
  • 無料版等でオプトアウト(学習拒否)設定をしていない場合、入力データがAIの学習に利用され、第三者への回答として漏洩するリスクが非常に高いです。機密情報や個人情報の入力は厳禁です。

【解説】

生成AIは入力されたプロンプトを学習データとして蓄積する仕様が基本です。過去には企業の機密コードや会議録が漏洩した事例もあります。

対策:

1. 設定の変更: 無料版のChatGPTでも「Data Controls」から「Chat history & training」をオフにすることで学習を防げます。

2. 法人プランの導入: 初期設定で「学習に利用しない」と明記されている法人向けプラン(Enterprise等)を契約するのが安全です。

3. マスキング: どうしても使う場合は、固有名詞や数値をダミーに置き換える(匿名化する)工夫が必要です。