欢迎来到运维革新

运维革新

89% 的企业生成式AI使用未被IT部门察觉,暴露数据安全隐患

时间:2025-11-26 22:23:54 出处:人工智能阅读(143)

企业当前要么正在采用生成式AI(GenAI)解决方案,业生隐患要么正在评估如何将这些工具整合到业务计划中 ,成式察觉或者两者兼而有之。使用数据为了推动明智的未被决策和有效的规划 ,获取硬数据至关重要 ,部门暴露然而此类数据却出人意料地稀缺 。安全

LayerX发布的业生隐患“2025年企业生成式AI数据安全报告”为工作场所中AI工具的实际应用提供了前所未有的洞察,同时揭示了关键的成式察觉安全漏洞 。该报告基于LayerX企业客户的使用数据真实遥测数据 ,是香港云服务器未被少数能够详细说明员工实际使用生成式AI情况的可靠来源之一 。

例如  ,部门暴露报告揭示  ,安全近90%的业生隐患企业AI使用发生在IT部门的可视范围之外 ,这使企业面临数据泄露和未经授权访问等重大风险 。成式察觉

以下我们将分享报告中的使用数据一些关键发现 。阅读完整报告以完善和增强您的安全策略,利用数据驱动的决策进行风险管理 ,并推动资源投入以加强生成式AI的数据保护措施 。模板下载

企业生成式AI使用尚不普遍

尽管生成式AI的热潮可能会让人觉得整个劳动力已经将办公室操作转向了生成式AI ,但LayerX发现实际使用情况略显冷淡 。大约15%的用户每天都会访问生成式AI工具。虽然这一比例不可忽视 ,但并非主流。

不过 ,我们认同LayerX的分析,并预测这一趋势将迅速加速 ,尤其是因为目前有50%的用户每隔一周使用一次生成式AI  。

此外 ,报告发现 ,云计算39%的常规生成式AI工具用户是软件开发者。这意味着通过生成式AI泄露源代码和专有代码的风险最高 ,同时在代码库中使用有风险的代码也存在隐患 。

生成式AI如何使用?谁也不知道

由于LayerX嵌入了浏览器中  ,因此该工具能够观察到“影子SaaS”的使用情况 。这意味着他们可以看到员工使用未经企业IT批准的工具或通过非企业账户访问这些工具 。

尽管像ChatGPT这样的生成式AI工具被用于工作目的,但近72%的建站模板员工通过个人账户访问它们 。即使员工通过企业账户访问,也仅有约12%使用单点登录(SSO)。因此 ,近90%的生成式AI使用对企业来说是不可见的 。这让企业对“影子AI”应用以及未经授权在AI工具上共享企业信息的情况一无所知。

50%的粘贴行为涉及企业数据

还记得帕累托原则吗 ?在这种情况下,虽然并非所有用户每天都使用生成式AI ,但使用生成式AI的用户往往会频繁粘贴潜在机密信息。

LayerX发现  ,免费模板在向生成式AI工具提交数据的用户中,平均每天发生近4次企业数据粘贴行为 。这可能包括商业信息、客户数据、财务计划、源代码等。

企业如何规划生成式AI的使用 ?

报告中的发现表明,急需新的安全策略来管理生成式AI风险。传统安全工具无法应对现代以AI驱动的 、基于浏览器的工作环境。亿华云它们缺乏在源头(即浏览器)检测 、控制和保护AI交互的能力。

基于浏览器的安全解决方案能够提供对AI SaaS应用程序  、ChatGPT之外未知的AI应用程序、启用AI的浏览器扩展等的可见性 。这种可见性可用于部署针对生成式AI的数据丢失防护(DLP)解决方案,使企业能够安全地将生成式AI纳入其计划 ,为未来的业务保驾护航。

如需了解更多关于生成式AI使用情况的数据,请阅读完整报告。

分享到:

温馨提示:以上内容和图片整理于网络,仅供参考,希望对您有帮助!如有侵权行为请联系删除!

友情链接: