AIのセキュリティの基本:大事なことは3つだけ

ブログ

AIは便利です。ただし「絶対に安全」とは言えません。これはChatGPTでもGeminiでも同じです。

危険リスク(10段階・相対)
紙で管理4/10
物理盗難・紛失・覗き見・コピーが主。拡散は“手間”がある分、即時大規模流出は起きにくい。
金庫で管理2/10
物理耐性が上がる。リスクは鍵管理・内部者・火災/水害・取り出し時のヒューマンエラー。
パスワード(デジタル管理)6/10
フィッシング、端末感染、クラウド設定ミス、共有運用で急に跳ねる。流出時の拡散は早い。
AIで管理(外部AIに投入・要約・検索などに使う)7/10
「学習に使わない」でも運用上の保持、外部連携、ログ、誤投入・誤送信の事故が残る。拡散速度が速い。
1) どんな方法でも、漏れる可能性は0にならない

紙でも、金庫でも、パスワードでも、AIでも、事故は起こり得ます。
違いは「どれくらい起こりやすいか」と「起きたときにどれくらい広がるか」です。

2) 「学習に使わない」=「一切残らない」ではない

設定や法人プランで「学習に使わない」はできます。
でも、サービスを動かすために一時的に保存されたり、ログが残ったりする可能性はあります。
だから「確実に遮断できる」と言い切るのは難しいです。

3) いちばん強い対策は「最初から入れない」か「形を変える」

AIに入れる情報を、次の3つに分けるのが現実的です。

  • そのまま入れてよい:公開情報、一般的な相談、テンプレ文
  • 形を変えてから入れる:名前・会社名・数字を置き換える
    例:A社、顧客X、売上は「だいたい増えた」
  • 入れない:個人情報、パスワード、契約書の中身、顧客リスト、生のデータ

「AIを使う=必ず漏れる」と決めつける必要はありません。
ただし「漏れる可能性はある」と考え、漏れても困らない形で使うのが一番安全です。

岡山のホームページ作成