近10%员工GenAI提问隐藏风险
企业数据安全遭遇生成式人工智能时代的新挑战:企业员工非授权使用生成式AI工具(GenAI)的行为,可能导致核心商业机密与客户隐私数据外泄。该现象暴露出现代企业面临的双重风险:一方面,未经报备的Shadow AI工具犹如流动的暗网,通过个人终端设备渗透至企业数字生态;另一方面,即便通过正规渠道部署的AI应用,在未经安全评估和技术审计的情况下,同样可能造成数据泄露。
GenAI数据泄露分析
- 客户数据泄露是GenAI数据泄露的主要类型,包括账单信息和认证数据。保险索赔报告是员工为节省处理时间而频繁输入GenAI工具的一种报告类型,这类报告中包含大量客户数据,占46%。
- 员工数据泄露包括薪资数据和个人身份识别信息(PII)。这些数据的泄露可能导致员工隐私被侵犯,甚至可能被用于非法目的,占27%。
- 法律和财务数据占15%,包括销售管道数据、投资组合以及并购活动的信息。与安全相关的信息占6.88%,包括渗透测试结果、网络配置和事件报告,这些数据可能为攻击者提供利用漏洞的机会。
三类AI使用场景
企业LLM使用可分为三类
- 授权部署:经许可或自研的大模型
- Shadow AI:企业明令禁止的免费消费级应用
- Semi-shadow genAI:业务部门未经IT审批采购的付费应用,成为最难管控的新兴风险
企业AI使用警示
研究显示,54%的敏感数据通过ChatGPT,Deepseek,Gemini等免费版应用泄露。即便付费企业版承诺不将用户查询用于训练,但若员工提问泄露商业秘密,法律保护可能失效。仅依赖合同条款远未达到”合理保护措施”标准,企业必须配套严格的员工使用政策。
应对建议
- 实施输入验证与净化:使AI系统能区分合法指令与恶意输入,通过验证和净化处理阻断有害提示词
- 建立访问控制:采用基于角色的访问控制(RBAC),限制对AI系统及其训练数据的接触范围
- 定期安全评估:持续检测AI系统漏洞(包括提示词注入缺陷),通过对抗测试识别潜在弱点
- 监控AI交互:实时监测输入输出数据,保留交互日志支持审计调查
- 员工安全意识培训:使员工认知AI系统风险(含提示词注入威胁),降低无意暴露概率
- 制定事件响应计划:建立AI安全事件处置流程,确保漏洞出现时能快速止损
- 与开发者协同:保持与AI供应商的技术同步,确保安全贯穿开发全生命周期
在AI浪潮中筑牢数据防线
面对AI数据泄漏,企业需建立”使用-管控”双轨机制:技术层面部署智能审计工具,管理层面培养数据敏感度。