你的数据去了哪?
以 OpenAI 为例:
- 免费版 / Plus:默认会用你的对话训练模型(可以在设置里关)
- API / Enterprise:默认不训练,30 天后删除
国产大模型:请仔细阅读各家隐私条款,多数默认可能用于训练。
10 条安全守则
1. 不发个人敏感信息
身份证号、银行卡、密码、住址、手机号。
2. 不发客户 / 公司机密
没签企业协议的情况下,内部合同、客户名单、财务数据不要发。
3. 医疗 / 法律问题要脱敏
描述病情可以,但不要带个人身份信息。
4. 关闭训练开关
- ChatGPT:Settings → Data controls → Chat history & training 关闭
- Claude:设置里找 "Help improve Claude" 关闭
- Gemini:myactivity.google.com 里关闭
5. 用 API 比用网页更安全
对企业:走 API + 签 DPA 协议,默认不训练。
6. 本地模型处理最敏感数据
用 Ollama + Llama / DeepSeek 本地部署,数据不出本机。
7. 检查生成内容的引用
AI 可能会"记住"训练数据里的邮箱、电话号,输出中出现这类信息请手动删除。
8. 不要盲目信任 AI 代码
AI 生成的代码可能包含:
- 过时 API 的调用
- 写死的 token / 密钥(别人的)
- 有注入漏洞
9. 警惕 Prompt 注入攻击
别人可以通过网页 / 邮件藏指令,诱导你的 AI Agent 执行恶意操作。开发者要做输入过滤。
10. 定期删除对话历史
不需要的对话手动删除,减少泄露面。
企业合规建议
- 上 AI Gateway:统一走 OpenAI Enterprise / Azure OpenAI / AWS Bedrock
- 走数据分级:公开 / 内部 / 机密,机密级禁用云端 AI
- 培训全员:3 个月一次 AI 使用规范培训
下一步
- 如果涉及企业部署,考虑 本地大模型部署