• 大型语言模型(LLM)
  • Microsoft Graph 中的内容,例如你有权访问的电子邮件、聊天和文档。
  • 每天使用的 Microsoft 365 应用,例如 Word 和 PowerPoint。
  • 有关这三个组件如何协同工作的概述,请参阅 Microsoft 365 Copilot 概述 。 有关与 Microsoft 365 Copilot 相关的其他内容的链接,请参阅 Microsoft 365 Copilot 文档

  • Microsoft 365 Copilot 符合我们对Microsoft 365商业客户的现有隐私、安全和合规性承诺,包括一般数据保护条例 (GDPR) 和欧盟 (EU) 数据边界。
  • 通过 Microsoft Graph 访问的提示、回复和数据不用于培训基础 LLM,包括 Microsoft 365 Copilot 使用的 LLM。
  • 适用于 Microsoft 365 的 Microsoft Copilot 具有多种保护,包括但不限于 阻止有害内容 检测受保护的材料 以及 阻止提示注入(越狱攻击)
  • 本文中的信息旨在帮助回答以下问题:

    Microsoft 365 Copilot 如何使用专有组织数据? 适用于 Microsoft 365 的 Copilot 如何保护组织信息和数据? 会存储哪些有关用户与适用于 Microsoft 365 的 Copilot 交互的数据? 适用于 Microsoft 365 的 Copilot 做出哪些数据驻留承诺? 适用于 Microsoft 365 的 Copilot 提供哪些扩展性选项 Microsoft 365 Copilot 如何满足法规合规性要求? Microsoft 365 应用版中的连接体验隐私控件是否适用于 适用于 Microsoft 365 的 Copilot?
  • 我可以信任 Microsoft 365 Copilot 创建的内容吗? 谁拥有此内容?
  • Microsoft 对负责任地使用 AI 的承诺是什么?

    随着时间的推移,Microsoft 365 Copilot 将继续扩展新功能。 若要了解 Microsoft 365 Copilot 的最新情况或提出问题,请访问 Microsoft 技术社区上的 Microsoft 365 Copilot 社区

    Microsoft 365 Copilot 如何使用专有组织数据?

    Microsoft 365 Copilot 通过将 LLM 连接到组织数据来提供价值。 Microsoft 365 Copilot 通过 Microsoft Graph 访问内容和上下文。 它可以基于客户业务内容(例如用户文档、电子邮件、日历、聊天、会议、联系人和其他业务数据)生产响应。 适用于 Microsoft 365 的 Copilot 将此内容与用户的工作环境联系起来,例如用户现在参加的会议、用户对某个主题的电子邮件交流,或用户上周的聊天对话。 Microsoft 365 Copilot 将此内容和环境联系起来,以帮助提供准确、相关且符合上下文的响应。

    通过 Microsoft Graph 访问的提示、回复和数据不用于培训基础 LLM,包括 Microsoft 365 Copilot 使用的 LLM。

    Microsoft 365 Copilot 仅显示单个用户至少具有查看权限的组织数据。 请务必使用 Microsoft 365 服务(例如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组有权访问组织内的相应内容。 这包括通过租户间协作解决方案(如 Microsoft Teams 中的共享频道 )向组织外部的用户授予的权限。

    使用适用于 Microsoft 365 的 Copilot 输入提示时,提示中包含的信息、它们检索的数据以及生成的响应仍在 Microsoft 365 服务边界内,以符合我们当前的隐私、安全性和合规性承诺。 适用于 Microsoft 365 的 Copilot 使用 Azure OpenAI 服务进行处理,而不是使用 OpenAI 的公开服务。 Azure OpenAI 不会缓存客户内容,并且 Copilot 修改了适用于 Microsoft 365 的 Copilot 的提示。 有关详细信息,请参阅 本文后面的有关用户与适用于 Microsoft 365 的 Copilot 交互的数据

  • 使用插件帮助适用于 Microsoft 365 的 Copilot 提供更多相关信息时,请检查该插件的隐私声明和使用条款,以确定它如何处理组织的数据。 有关详细信息,请参阅 适用于 Microsoft 365 的 Copilot 的扩展性
  • 使用 Web 内容插件时,适用于 Microsoft 365 的 Copilot 会分析用户的提示,并识别 Web 搜索可以提高回复质量的术语。 Copilot 会根据这些术语生成一个将发送到必应搜索服务的搜索查询。 有关详细信息,请 参阅适用于 Microsoft 365 的 Copilot 和 Microsoft Copilot 中的 Web 查询的数据、隐私和安全性
  • 虽然滥用监视(包括对内容进行人工审查)在 Azure OpenAI 中可用,但适用于 Microsoft 365 的 Copilot 服务已选择退出。 有关内容筛选的信息,请参阅 本文后面的“Copilot 如何阻止有害内容?” 部分。

    我们可能会使用客户反馈(可选)来改进适用于 Microsoft 365 的 Copilot,就像我们使用客户反馈改进其他 Microsoft 365 服务和 Microsoft 365 生产力应用一样。 我们不会使用此反馈来训练 Microsoft 365 Copilot 使用的基础 LLM。 客户可以通过管理员控件管理反馈。 有关详细信息,请参阅 管理组织的 Microsoft 反馈 提供有关适用于 Microsoft 365 的 Microsoft Copilot 应用的反馈

    存储有关用户与适用于 Microsoft 365 的 Copilot 交互的数据

    当用户与适用于 Microsoft 365 的 Copilot 应用(使用 Word、PowerPoint、Excel、OneNote、Loop 或 Whiteboard 等)交互时,我们会存储有关这些交互的数据。 存储的数据包括用户的提示和 Copilot 的回复,包括对用于支持 Copilot 回复的任何信息的引用。 我们将用户的提示和 Copilot 对此提示的响应称为“交互内容”,这些交互的记录是用户的 Copilot 活动历史记录。 例如,此存储的数据为用户提供Microsoft Teams 中 Business Chat 会议中的 Copilot 活动历史记录。 此数据的处理和存储方式与组织在 Microsoft 365 中的其他内容的合同承诺保持一致。 数据会在存储时加密,且不会用于训练基础 LLM,包括适用于 Microsoft 365 的 Copilot 使用的基础 LLM。

    若要查看和管理此存储数据,管理员可以使用内容搜索或 Microsoft Purview。 管理员还可以使用 Microsoft Purview 为与 Copilot 的聊天交互相关的数据设置保留策略。 有关详细信息,请参阅以下文章:

    内容搜索概述 适用于生成式 AI 应用的 Microsoft Purview 数据安全性和合规性保护 了解用于 Copilot 的保留

    对于使用 Copilot 的 Microsoft Teams 聊天,管理员还可以使用 Microsoft Teams 导出 API 查看存储的数据。

    删除用户与适用于 Microsoft 365 的 Copilot 交互的历史记录

    用户可以通过转到 “我的帐户”门户 来删除其 Copilot 活动历史记录,其中包括其提示和 Copilot 返回的响应。 有关详细信息,请参阅 删除智能 Microsoft 365 Copilot 副驾驶®活动历史记录

    Microsoft 365 Copilot 和欧盟数据边界

    Microsoft 365 Copilot 对 LLM 的调用会路由到区域最近的数据中心,但也可以调用到利用率高峰期间容量可用的其他区域。

    对于欧盟 (EU) 用户,我们有其他安全措施来遵守 欧盟数据边界 。 欧盟流量保留在欧盟数据范围内,而全球流量可以发送到欧盟和其他国家或地区进行 LLM 处理。

    适用于 Microsoft 365 的 Copilot 和数据驻留

    适用于 Microsoft 365 的 Copilot 正在遵守 Microsoft 产品条款和数据保护附录中所述的数据驻留承诺。 适用于 Microsoft 365 的 Copilot 已于 2024 年 3 月 1 日 添加为 Microsoft 产品条款中的数据驻留承诺中涵盖的工作负载。

    Microsoft 高级数据驻留 (ADR) 多地理位置功能 产品/服务包括截至 2024 年 3 月 1 日适用于 Microsoft 365 的 Copilot 客户的数据驻留承诺。 对于欧盟客户,适用于 Microsoft 365 的 Copilot 是欧盟数据边界服务。 欧盟以外的客户可能会在美国、欧盟或其他区域处理其查询。

    Microsoft 365 Copilot 的可扩展性

    虽然适用于 Microsoft 365 的 Copilot 已能够在 Microsoft 365 生态系统中使用应用和数据,但许多组织仍依赖各种外部工具和服务进行工作管理和协作。 适用于 Microsoft 365 的 Copilot 体验可以通过使用 Microsoft Graph 连接器 或插件在响应用户请求时引用第三方工具和服务。 如果用户有权访问该信息,则可以在适用于 Microsoft 365 的 Copilot 中返回来自 Graph 连接器的数据。

    启用插件后,适用于 Microsoft 365 的 Microsoft Copilot 确定是否需要使用特定插件来帮助向用户提供相关回复。 如果需要插件,适用于 Microsoft 365 的 Microsoft Copilot 将生成一个搜索查询,以代表用户发送到该插件。 查询基于用户的提示、Copilot 活动历史记录以及用户有权在 Microsoft 365 中访问的数据。

    Microsoft 365 管理中心 集成应用 部分中,管理员可以查看插件所需的权限和数据访问权限,以及插件的使用条款和隐私声明。 管理员可以完全控制以选择允许在其组织中使用的插件。 用户只能访问其管理员允许的插件以及用户安装或分配的插件。 适用于 Microsoft 365 的 Copilot 仅使用用户打开的插件。

    有关详细信息,请参阅以下文章:

    在集成应用中管理 Copilot 的插件 扩展 Microsoft 365 Copilot 适用于 Microsoft 365 的 Copilot 处理外部数据的方式

    适用于 Microsoft 365 的 Copilot 如何保护组织数据?

    Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 Microsoft 365 Copilot 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 语义索引支持基于用户身份的访问范围,以便“Grounding”进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档

    如果数据由 Microsoft Purview 信息保护加密,则适用于 Microsoft 365 的 Copilot 将遵守授予用户的使用权限。 可以通过 敏感度标签 应用此加密,也可以通过使用信息权限管理 (IRM) 在 Microsoft 365 中的应用中使用受限权限来应用此加密。 有关将 Microsoft Purview 与适用于 Microsoft 365 的 Copilot 配合使用的详细信息,请参阅 生成式 AI 应用的 Microsoft Purview 数据安全和合规性保护

    我们已实施多种形式的保护,以帮助防止客户损害 Microsoft 365 服务和应用程序,或获取对其他租户或 Microsoft 365 系统自身的未经授权的访问权限。 下面是各种保护形式的一些示例:

  • Microsoft 365 服务每个租户中的客户内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。 有关详细信息,请参阅 Microsoft 365 隔离控件

  • Microsoft 使用严格的物理安全性、后台屏蔽和多层加密策略来保护客户内容的机密性和完整性。

  • Microsoft 365 使用服务端技术来加密静态和传输中的客户内容,包括 BitLocker、按文件加密、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。 有关 Microsoft 365 加密的具体详细信息,请参阅 Microsoft 云中的加密

  • Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。

  • 对于通过适用于 Microsoft 365 的 Copilot 插件访问的内容,加密可以排除编程访问,从而限制插件访问内容。 有关详细信息,请参阅 为 Azure 信息保护配置使用权限

    满足法规合规性要求

    随着 AI 领域法规的发展,Microsoft 将继续满足和适应足未来法规的要求。

    Microsoft 365 Copilot 基于 Microsoft 当前对企业中数据安全和隐私的承诺而构建。 这些承诺始终如一。 Microsoft 365 Copilot 已集成到 Microsoft 365 中,并遵守对 Microsoft 365 商业客户的所有现有隐私、安全和合规性承诺。 有关详细信息,请参阅 Microsoft 合规性

    除了遵守法规之外,我们还优先与客户、合作伙伴和监管机构建立开放对话,以便更好地了解和解决问题,从而形成信任和合作的环境。 我们承认在 Microsoft AI 驱动的环境下,隐私性、安全性和透明度不仅仅是其特征,而是先决条件。

    适用于 Microsoft 365 的 Copilot 和连接体验的隐私控件

    Microsoft 365 应用版中连接体验的一些隐私控件可能会影响适用于 Microsoft 365 的 Copilot 功能的可用性。 这包括用于分析内容的连接体验的隐私控件,以及可选连接体验的隐私控件。 有关隐私控件的详细信息,请参阅 Microsoft 365 企业应用版的隐私控件概述

    用于分析内容的连接体验的隐私控件

    如果关闭在组织中设备上分析内容的连接体验,智能 Microsoft 365 Copilot 副驾驶®功能将不适用于以下应用中的用户:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • 这适用于在 Windows、Mac、iOS 或 Android 设备上运行这些应用的最新版本。

    还有一项隐私控制,可关闭所有连接体验,包括分析内容的连接体验。 如果你使用该隐私控制,智能 Microsoft 365 Copilot 副驾驶®功能将无法在应用和上述设备上使用。

    可选连接体验的隐私控制

    如果在组织中关闭可选的连接体验,则用户将无法使用可选连接体验的适用于 Microsoft 365 的 Copilot 功能。 例如, Web 搜索 将对你的用户不可用。

    还有一项隐私控件,可关闭所有连接体验,包括可选的连接体验。 如果使用该隐私控件,适用于 Microsoft 365 的 Copilot 可选连接体验的功能将不可用。

    关于 Microsoft 365 Copilot 创建的内容

    使用生成性 AI 产生的响应,并不能保证 100% 的事实性。 尽管我们不断改进响应,但用户仍应在发送输出内容给其他人之前通过判断来检查。 我们的 Microsoft 365 Copilot 功能提供有用的草稿和摘要,可帮助你实现更多目标,同时让你有机会查看生成的 AI,而不是完全将这些任务自动化。

    我们将继续改进算法,努力解决诸如错误信息和虚假信息、内容拦截、数据安全等问题,并根据我们 负责任的 AI 原则 防止推广有害或歧视性的内容等问题。

    Microsoft 不声明服务输出的所有权。 也就是说,我们不会确定客户的输出是否受版权保护或可对其他用户强制执行。 这是因为生成式 AI 系统可能会对多个客户的类似提示或查询生成类似的响应。 因此,多个客户可能拥有或声称拥有相同或基本相似的内容的权利。

    如果第三方起诉商业客户使用 Microsoft Copilots 或其生成的输出侵犯版权,我们将为客户辩护,并支付诉讼导致的任何不利判决或和解金额,只要客户使用我们内置于产品中的防护措施和内容筛选器。 有关详细信息,请参阅 Microsoft 宣布面向客户的新 Copilot 版权承诺

    Copilot 如何阻止有害内容?

    Azure OpenAI 服务包括与核心模型一起使用的内容筛选系统。 针对“恶意与公平”、“性”、“暴力”和“自残”类别的内容筛选模型经过了专门的培训,并以各种语言进行了测试。 此系统的工作原理是通过分类模型运行输入提示和响应,这些模型旨在标识和阻止有害内容的输出。

    与仇恨和公平相关的伤害是指任何基于种族、民族、国籍、性别认同和表达、性取向、宗教、移民身份、能力状况、个人外貌和体型等属性使用贬义或歧视性语言的内容。 公平性是指确保 AI 系统公平地对待所有人群,而不会助长现有的社会不公平现象。 性内容涉及对人体生殖器官、恋爱关系、色情或亲昵行为、怀孕、身体性行为(包括攻击或强迫性暴力行为)、卖淫、色情和虐待的讨论。 暴力描述与旨在伤害或杀害的身体行为有关的语言,包括行动、武器和相关实体。 自残语言是指故意伤害或杀害自己的行为。

    详细了解 Azure OpenAI 内容筛选

    Copilot 是否提供受保护的材料检测?

    是的,适用于 Microsoft 365 的 Copilot 可检测受保护的材料,其中包括受版权约束的文本和受许可限制的代码。 并非所有这些缓解措施都适用于所有适用于 Microsoft 365 的 Copilot 应用场景。

    Copilot 是否阻止提示注入(越狱攻击)?

    越狱攻击 是一种用户提示,其目的是激怒生成式 AI 模型,使其按照训练好的方式行事,或违反它被告知要遵守的规则。 适用于 Microsoft 365 的 Microsoft Copilot 旨在防范提示注入攻击。 详细了解越狱攻击以及如何使用 Azure AI 内容安全检测它们

    致力于负责任的 AI

    正当 AI 改变我们生活的时候,我们必须为这项技术的使用和影响共同定义新规则、规范和实践。 自 2017 年以来,Microsoft 一直在开拓负责任的 AI 之旅,当时我们定义了我们的原则和方法,以确保以人为本的道德原则驱动这项技术使用。

    在 Microsoft,我们遵循 AI 原则 负责任的 AI 标准 ,以及数十年的 AI、Grounding 和隐私保护机器学习研究。 由研究人员、工程师和策略专家组成的多学科团队审查 AI 系统的潜在危害和缓解措施 - 优化培训数据、筛选以限制有害内容、查询和结果拦截敏感主题,以及应用 Microsoft 技术(例如 InterpretML Fairlearn )以帮助检测和纠正数据偏差。 我们通过指出局限性、链接来源以及提示用户审查、事实核查和根据主题专业知识调整内容,来明确系统如何做出决定。 有关详细信息,请参阅 管理 AI:未来蓝图

    我们的目标是帮助我们的客户负责任地使用 AI 产品,分享我们的学习知识,并建立基于信任的合作关系。 对于这些新服务,我们希望向客户提供有关 AI 平台服务的预期用途、功能和限制的信息,以便他们拥有做出负责任部署选择所需的知识。 我们还与组织内部的开发人员以及独立软件供应商 (ISV) 共享资源和模板,以帮助他们构建有效、安全且透明的 AI 解决方案。

    Microsoft 365 Copilot 要求 Microsoft 365 Copilot 入门 Microsoft 365 Copilot 采用站点