「ChatGPT は安全か?」

no extension

前回の記事のあとにこれだと「またぞろ政治の話か」と思われそうだが,今回は純粋にリスク・マネージメントの話。 Proton のブログより。

ChatGPT に限らないが生成 AI サービスの大半はユーザが入力したデータやプロンプトをサービスプロバイダ側が入手できる。 実際にサービスプロバイダの多くはユーザの入力(データもプロンプトも)を保持して学習に使ってるし,インシデントの際は(政府を含む)第三者にそれを開示している。 また広告・分析会社に情報を売っていた例もあるし ChatGPT との会話内容が Google 検索に拾われてしまった例もあったそうな。

そうしたリスクを改めて思い起こさせたのが前回紹介した事例で,これによって400万人以上のユーザが ChatGPT を止めると宣言しているらしい1

件の記事では ChatGPT に対して「個人のプライバシー」「ビジネスリスク」「透明性の欠如」の3つのリスクを挙げている。 詳しい内容は(結構ボリュームがあるので)ここでは割愛する。

Even though ChatGPT can be helpful, you should never treat it like a secure vault for sensitive information. Avoid entering anything that could harm you, your company, or others if it were stored, reviewed, or accidentally exposed:

それでも ChatGPT を使いたいならどうすりゃいいの? ということで,入力してはいけないものとして以下を挙げている。

Is ChatGPT safe to use? Here’s what you should know.

具体的にはこんな感じ:

  • パスワードと認証データ: アカウントのパスワード,二要素認証(2FA)コード,バックアップ認証コード,プライベートAPIキーなど
  • 政府発行の識別番号: 社会保障番号,国民ID,パスポート,運転免許証,納税者番号など
  • 金融および銀行情報: クレジットカードまたはデビットカードの番号,IBAN,オンラインバンキングの認証情報,投資口座のログイン情報,ビットコインウォレットの秘密鍵など
  • 機密性の高い個人データ: あなたやあなたの家族を特定または追跡するために使用される可能性のある情報。自宅の住所や電話番号,生年月日,プライベートな写真や文書など
  • 健康情報: 医療報告書,診断記録,保険番号,患者ID,またはあなたの身元に結びついた詳細な健康履歴など
  • 機密性の高い業務データや企業データ: 独自のソースコード,社内戦略文書,機密契約書,顧客データベース,クライアント詳細情報,財務予測,未公開レポート,NDAなど
  • 法的情報および秘匿特権のある情報: 弁護士と依頼人間の通信,訴訟戦略,証拠書類,秘密の和解交渉など

いや,まぁ, AI サービスでなくても当たり前なんだけどね,これ。 こういう情報をうっかり漏らしてしまうというのは,やっぱ生成 AI サービスはデータ構造が分かりにくい(というか構造がない)というのが根底にあるんじゃないだろうか,と思ったり。

さらに ChatGPT を安全に利用するために以下の習慣を身につけると良いとある。

  • 保存,レビュー,または公に公開されたくない機密情報の共有は避ける
  • 個人を特定できる情報を削除するか,プレースホルダーや架空の例に置き換える
  • 機密情報や個人情報を含まないファイルのみをアップロードする
  • AIチャットは,他の人に見られる可能性のあるメールやサポートチケットのように扱う
  • プライバシー設定を確認し,チャット履歴,メモリ,AIトレーニングなどの設定は無効にする
  • 不要になった会話を削除し,アカウントに関連付けられた個人情報の量を減らす

もちろん生成 AI サービスを乗換える手もある。

(明らかに宣伝だがw) Proton の Lumo はユーザデータを「ゼロアクセス暗号化」することを売りにしていて,履歴を一切保存しないゴーストモードもあるらしい2

私が常用している Kagi Assistant 匿名性を売りにしている。 また「ユーザデータは負債である」というポリシーを持っていて,できるだけユーザデータをサービス側に保存しないようにしているそうな3

いっそのこと SaaS など使わずオンプレミスで AI 環境を構築するという手もある。 企業・組織はこのほうがいいかも知れない。 軍事関係もね(笑)

(Grok や Google は元から悪いが)今回の騒動で Anthropic や OpenAI といった大手のサービスはセキュリティやプライバシーのリスク観点からは旗色が悪くなったように思う。 各サービスにおける運用のポリシーや透明性を見極めて,賢く使うのがいいと思う。 所詮は道具なんだから。

ブックマーク

参考

photo
セキュリティはなぜやぶられたのか
ブルース・シュナイアー (著), 井口 耕二 (翻訳)
日経BP 2007-02-15
単行本
4822283100 (ASIN), 9784822283100 (EAN), 4822283100 (ISBN)
評価     

原書のタイトルが “Beyond Fear: Thinking Sensibly About Security in an Uncertain World” なのに対して日本語タイトルがどうしようもなくヘボいが中身は名著。とりあえず読んどきなはれ。ゼロ年代当時 9.11 およびその後の米国のセキュリティ政策と深く関連している内容なので,そのへんを加味して読むとよい。

reviewed by Spiegel on 2019-02-11 (powered by PA-APIv5)

photo
ハッキング思考 強者はいかにしてルールを歪めるのか、それを正すにはどうしたらいいのか
ブルース・シュナイアー (著), 高橋 聡 (翻訳)
日経BP 2023-10-12 (Release 2023-10-12)
Kindle版
B0CK19L1HC (ASIN)
評価     

Kindle 版が出てた!

reviewed by Spiegel on 2023-11-21 (powered by PA-APIv5)


  1. 2026-03-07 時点。 ↩︎

  2. Lumo に対する PrivacySpy のスコアはないが Proton VPS については 8.1 (10点満点) と評価されている。データ侵害が発生した場合のユーザへの対応がイマイチらしい。まぁ,高スコアではあるので Lumo もこのくらいならいいんだけど。 ↩︎

  3. Kagi Assistant に対する PrivacySpy のスコアはないが Kagi 検索サービスについては 7.5 と評価されている。一般的なセキュリティ・ポリシーが曖昧なのと,法執行機関の要請への対応が明記されてない点がマイナス要素らしい。 ↩︎