文章博客

文章博客 > 文章内容

生成式AI数据泄漏:企业安全新威胁

分类:

AI云安全 解决方案

发布日期: 25年09月09日

近10%员工GenAI提问隐藏风险

企业数据安全遭遇生成式人工智能时代的新挑战:企业员工非授权使用生成式AI工具(GenAI)的行为,可能导致核心商业机密与客户隐私数据外泄。该现象暴露出现代企业面临的双重风险:一方面,未经报备的Shadow AI工具犹如流动的暗网,通过个人终端设备渗透至企业数字生态;另一方面,即便通过正规渠道部署的AI应用,在未经安全评估和技术审计的情况下,同样可能造成数据泄露。

GenAI数据泄露分析

  • 客户数据泄露是GenAI数据泄露的主要类型,包括账单信息和认证数据。保险索赔报告是员工为节省处理时间而频繁输入GenAI工具的一种报告类型,这类报告中包含大量客户数据,占46%。
  • 员工数据泄露包括薪资数据和个人身份识别信息(PII)。这些数据的泄露可能导致员工隐私被侵犯,甚至可能被用于非法目的,占27%。
  • 法律和财务数据占15%,包括销售管道数据、投资组合以及并购活动的信息。与安全相关的信息占6.88%,包括渗透测试结果、网络配置和事件报告,这些数据可能为攻击者提供利用漏洞的机会。

三类AI使用场景

企业LLM使用可分为三类

  1. 授权部署:经许可或自研的大模型
  2. Shadow AI:企业明令禁止的免费消费级应用
  3. Semi-shadow genAI:业务部门未经IT审批采购的付费应用,成为最难管控的新兴风险

企业AI使用警示

研究显示,54%的敏感数据通过ChatGPT,Deepseek,Gemini等免费版应用泄露。即便付费企业版承诺不将用户查询用于训练,但若员工提问泄露商业秘密,法律保护可能失效。仅依赖合同条款远未达到”合理保护措施”标准,企业必须配套严格的员工使用政策。

应对建议

  • 实施输入验证与净化:使AI系统能区分合法指令与恶意输入,通过验证和净化处理阻断有害提示词
  • 建立访问控制:采用基于角色的访问控制(RBAC),限制对AI系统及其训练数据的接触范围
  • 定期安全评估:持续检测AI系统漏洞(包括提示词注入缺陷),通过对抗测试识别潜在弱点
  • 监控AI交互:实时监测输入输出数据,保留交互日志支持审计调查
  • 员工安全意识培训:使员工认知AI系统风险(含提示词注入威胁),降低无意暴露概率
  • 制定事件响应计划:建立AI安全事件处置流程,确保漏洞出现时能快速止损
  • 与开发者协同:保持与AI供应商的技术同步,确保安全贯穿开发全生命周期

在AI浪潮中筑牢数据防线

面对AI数据泄漏,企业需建立”使用-管控”双轨机制:技术层面部署智能审计工具,管理层面培养数据敏感度。

业务标签

精选文章

【联蔚盘云】新起点,新征程:新办公室启用啦!

在数字化转型的大潮中,作为国内多云管理服...


联蔚盘云再获Gartner推荐,FinOps领域持续领跑

在数字化浪潮中,多云管理平台正成为企业数...


携手共进,联蔚盘云深度参与中国信通院云平台交付能力标准编制

2024年,为进一步推动云平台交付的质量...


联蔚盘云亮相CDIE消费品行业峰会

8月28日,由华昂集团主办,专注于消费品...


联系我们

选择您关注的产品或解决方案,我们将尽快联系您!

售前咨询

400 670 5818 (周一至周五 9:30 - 18:00)