输入“/”快速插入内容

微软采取行动阻止 M365 Copilot 过度共享数据

2024年12月6日修改
随着人工智能技术的迅速发展,微软的 Microsoft 365 Copilot 作为一款具有强大功能的生成式 AI 助手,在为企业带来便利的同时,也引发了数据过度共享的问题。本文将深入探讨这一问题及微软为解决此问题所采取的措施。
Microsoft 365 Copilot 能够在企业的 M365 环境中,如 Word 文档、电子邮件、Teams 消息等广泛的数据中进行筛选并为用户检索信息,这是其优势之一。然而,其语言模型也可能会访问到未妥善锁定的敏感文件,导致员工在 Copilot 的响应中获取到机密数据,如薪资数据、机密法律文件甚至公司的顶级战略文件等。这对于企业的数据安全构成了潜在威胁,也使得企业在采用人工智能工具时面临诸多挑战。
为了解决 M365 Copilot 的过度共享问题,微软在其 Ignite 活动上推出了一系列新工具。其中,将扩大对 SharePoint Advanced Management(SAM)的访问权限,从 2025 年初开始,M365 Copilot 订阅用户将无需额外费用即可使用 SAM。SAM 具有一些新功能,例如权限状态报告可以识别“过度共享”的 SharePoint 站点,站点访问审查则为要求站点所有者解决权限问题提供了途径。此外,本月推出的 Restricted Content Discovery 功能允许管理员阻止 Copilot 搜索站点并处理内容,以防止敏感信息被意外访问。
在 Purview 方面,微软的这款数据安全和治理软件套件在 E5 订阅中提供了新的工具,以识别可被 Copilot 访问的过度共享文件。例如,在 Data Security Posture Management(DPSM)for AI 中进行的过度共享评估,有助于通过扫描文件中的敏感数据并识别访问权限应用过于广泛的 SharePoint 站点等存储库来突出可能存在风险的数据,并提供如何减轻过度共享风险的建议,如添加敏感性标签或限制从 SharePoint 的访问。Microsoft Purview Data Loss Prevention for M365 Copilot 则允许数据安全管理员根据文件的敏感性标签创建数据丢失预防(DLP)策略,以排除某些文档被 Copilot 处理。此外,Insider Risk Management 功能可以用于检测“有风险的 AI 使用情况”,包括包含敏感信息的提示以及用户试图访问未授权的敏感信息的行为,该功能涵盖了 M365 Copilot、Copilot Studio 和 ChatGPT Enterprise。
微软还在 Microsoft Learn 网站上提供了一个新的蓝图资源,概述了在 M365 Copilot 推出的三个阶段(试点、部署和持续运营)中减轻过度共享的建议路径,包括一个更基础的“基础路径”和一个使用 E5 中一些更高级的数据安全和治理工具的“优化路径”。
Gartner 的一项调查显示,数据“过度共享”问题导致 40%的受访者将 M365 Copilot 的推出延迟了三个月或更长时间,64%的受访者表示信息治理和安全风险需要大量的时间和资源来处理。这表明企业在评估和实施 M365 Copilot 时,对数据安全问题高度关注。同时,调查也显示,超过四分之一的受访者升级了他们的 M365 许可证,以包括一些微软 Purview 服务,这表明企业对数据管理工具的需求迫切。
对于希望部署 M365 Copilot 的客户来说,需要投入一系列措施来确保 AI 助手的安全推出。这不仅包括利用微软提供的内置功能,还应考虑到总拥有成本和投资回报率,包括为安全修复和持续运营所需的任何额外支出和资源投入,以及对员工进行安全存储和共享信息的培训。
总之,微软采取的一系列措施旨在解决 M365 Copilot 的过度共享问题,提高企业数据的安全性和治理水平。然而,解决这一问题需要企业和微软共同努力,充分利用各种工具和资源,确保人工智能技术在为企业带来价值的同时,不会对数据安全造成威胁。