無料見積サイバー保険の⼀括⾒積⽐較はこちらから
画像:ESETより引用
セキュリティ企業のESETはこのほど、対話型AI「ChatGPT」の利用が一般ユーザーの間で急速に広がる中、利便性の裏側に潜む情報漏えいリスクについて注意を呼びかけました。
同社はAIとの会話について、一見すると私的な相談のように感じられるが、入力内容は必ずしも完全に秘匿されるものではなく、「すべてのチャットは公開される可能性があるものとして扱うべきだ」という認識が重要だとしています。AIそのものを否定するのではなく、「AI利用者の意識と行動」がリスクを左右するという指摘です。
ESETが特に強調するのは絶対に入力すべきではない情報「レッドリスト」の存在です。①住所などの個人識別情報、②クレジットカード番号などの財務情報、③パスワードや認証コードなどの秘密情報、④顧客リストや社内情報などの企業データ、⑤健康に関する情報などセンシティブなものは、いかなる理由があってもAIに共有すべきではないとしています。これらは単体では問題がなく見えても、文脈の積み重ねによって個人や組織を特定できる危険性があるからです。
ESETはまた、ChatGPTと安全に向き合うための基本的な利用習慣の重要性を挙げています。公式サイトや正規アプリのみを利用し、強力なパスワードや、多要素認証の導入など基本的な対策に加え、設定画面でデータの学習利用を無効化し、必要に応じて一時チャットを使い分けるなど、データコントロールによるリスクの低減を推奨しています。また、実際の個人情報やファイルをそのまま入力するのではなく、匿名化した例に置き換える工夫も有効と説明しています。
ESETが最も強く訴えているのは、「ChatGPTは個人用のメモ帳や金庫ではない」という一点です。会話形式の親しみやすさが油断を生み、気づかないうちに重要な情報を預けてしまうことこそが最大のリスクになると指摘しています。AIを必要以上に避ける必要はありませんが、便利さと引き換えに主導権を手放さず、常に自分のデータは自分で守る姿勢が求められています。
参照ChatGPTは安全?2026年版セキュリティ&プライバシー完全ガイド|ESET

