AI 治理:以负责任的方式构建

您的设计决策直接决定了 AI 系统的责任和安全性。例如,您可以决定如何选择数据源、配置模型行为或向用户呈现 AI 输出。这些选择会对您的用户和公司产生实际影响。

在本模块中,我们将介绍 AI 治理的三个关键维度:

  • 隐私:负责任地处理数据,说明收集的数据,并尽量减少离开浏览器的数据。
  • 公平性:检查模型是否存在歧视性行为(偏差),并构建可让用户标记问题的反馈环。
  • 信任和透明度:设计系统时要注重透明度和适当的信任度,这样即使存在不确定性和潜在错误,用户也能继续从中受益。

对于每个主题,我们都会说明它在不同的 AI 产品中是如何体现的。然后,我们将从 AI 解决方案的三个层级(数据智能用户体验)进行细分。您将了解需要注意的事项、如何解决问题,以及如何保持有效且轻量级的治理。

隐私权

您已经了解到,实际使用情况和互动数据是任何 AI 系统的核心。数据可促进学习、评估和持续改进。良好的隐私保护实践不仅能让您确保这些数据的安全,还能让用户掌控自己的信息。

隐私保护预期因产品和受众群体而异。在消费类产品中,用户通常希望自己的个人身份信息 (PII)(例如姓名、消息和浏览行为)受到保护。在企业环境中,重点转向数据主权、保密性和知识产权保护。

影响人们生计或福祉的行业(例如医疗保健、金融和教育)需要比低风险领域(例如娱乐)更严格的隐私保护措施。

下面我们来看看如何在 AI 系统的不同组件中管理隐私保护。

数据

为了不断改进 AI 系统,您可以收集有关用户互动的数据,包括输入、输出、反馈和错误。这些信息可重复用于评估、模型微调或提示中的少样本示例。它还可以为您的用户体验设计提供参考。

以下是有关负责任地收集数据的一些准则:

  • 只收集学习所需的必要数据。AI 赋能的产品搜索功能可能不需要用户的完整个人资料即可改善搜索结果。在大多数情况下,提供查询、点击模式和匿名会话数据就足够了。
  • 去除敏感信息。在将数据发送到外部模型之前,请移除所有 PII(个人身份信息)。您可以通过匿名化、假名化或汇总来实现此目的。
  • 限制保留。在日志和缓存数据达到其用途后,将其删除。缩短保留周期可在不影响数据洞见的情况下降低风险。

记录您收集的信息、保留期限以及需要这些信息的原因。如果您无法向非技术用户清楚地说明数据流,则这些数据流可能过于复杂,难以控制或证明其合理性。

智能

用户与 AI 系统互动时,可能会在不知不觉中或不经意间输入私密信息或敏感信息。在开放式聊天或写作界面中,您无法限制用户输入的内容,因此这种风险尤其高。

虽然您可以阻止发送某些字词,但这些信息可能在上下文中具有敏感性。如果您的模型在由外部提供商管理的服务器上运行,则该提供商可能会将用户输入重新用作训练数据。最终,该模型可能会向其他用户泄露私密文本片段、凭据或其他机密详细信息。

以下是您在推理期间可以采取的一些措施,以防隐私权遭到侵犯:

  • 仔细审核第三方 API。您应该确切了解您发送的数据会发生什么情况。输入内容是否会被记录、保留或重新用于训练?避免使用不透明的服务,最好选择政策和控制措施透明的提供商。

  • 如果您自行训练或微调模型,请从训练数据中提取敏感详细信息。谨防走捷径式学习。例如,在信用评分应用中,邮政编码可能会导致模型对种族或社会经济地位做出假设。这可能会导致不公平的预测,并加剧现有的不平等现象。

  • 在敏感领域,优先选择客户端推理。这可以通过内置 AI、浏览器中的模型或自定义客户端模型来实现。您将在下一单元选择平台中详细了解此选项。

用户体验

应用界面可让您向用户展示正在发生的情况,赢得他们的信任,并让他们掌控自己的数据:

  • 公开透明。界面中的简短标签(例如“在本地处理”或“安全地发送以供分析”)有助于建立信任。考虑添加渐进式披露功能以提供更多详细信息,例如说明分析是在设备上还是在服务器上进行的工具提示。
  • 视情况申请权限。在相关情况下征求用户同意。“您是否愿意分享以往的搜索记录,以便我们为您提供更实用的建议?”比笼统的选择启用提示更有意义。
  • 提供简单的控制功能。添加清晰可见的开关,用于控制个性化、基于云的功能或数据共享。
  • 提供可见性。包含一个小型隐私信息中心,以便用户无需离开应用即可管理自己的数据。
  • 说明您收集数据的原因。如果用户了解数据将如何使用,可能会更愿意分享数据。保留和管理政策也同样适用。

Web AI 中的隐私保护并非一个简单的合规步骤,而是一种持续的设计理念:

  • 数据:减少收集,加强保护。
  • 智能:减少外部模型对潜在敏感数据的记忆。
  • 用户体验:让用户清楚了解隐私权设置并能自主控制。

公平性

AI 系统可能会带有偏见,导致不公平的歧视。在招聘、法律和金融等领域,偏见可能会扭曲直接影响现实生活中的人的关键决策,因此这一点尤为重要。

例如,根据历史招聘数据训练的招聘模型可能会将某些人口统计特征与较低的候选人质量相关联,从而无意中惩罚来自代表性不足群体的申请人,而不是评估与工作相关的技能和经验。

数据

训练数据是一组单独隔离的信息,可能会反映现实世界中的偏差,甚至会引入新的偏差。以下是一些实用步骤,可让与数据相关的偏差变得透明且可管理:

  • 记录数据源和覆盖范围。发布简短声明,帮助用户了解模型可能存在的不足。例如,“此模型主要使用英语内容进行训练,技术文本的代表性有限。”
  • 运行诊断检查。使用 A/B 测试来揭示系统性差异。例如,比较系统如何处理“She is a great leader”“He is a great leader”和“They are a great leader”。情绪或语气上的细微差异可能表明存在更深层次的偏见。
  • 为数据集添加标签。添加网域、地区和正式程度等轻量级元数据,以便日后轻松进行审核、过滤和重新平衡。

如果您要训练或微调自定义模型,请平衡数据集。与在模型构建完成后修正偏差相比,更广泛的表示能够更有效地减少偏差。

智能

在智能层中,偏差会转化为学习到的行为。您可以添加保障措施、重新排名逻辑或混合规则,以引导输出朝着公平性和包容性的方向发展:

  • 定期测试是否存在偏差。使用偏见检测过滤器标记有问题的措辞,例如发现性别化用语或排斥性语气。监控随时间推移而发生的漂移。
  • 对于预测性模型,请谨慎处理敏感数据。邮政编码、教育程度或收入等属性可能会间接编码种族或阶级等敏感特征。
  • 生成并比较多个输出。根据中立性、多样性和语气对结果进行排名,然后再确定要与用户分享哪个输出。
  • 添加规则以强制执行公平性限制。例如,屏蔽强化刻板印象或未能呈现多样化示例的输出内容。

用户体验

在界面中,明确说明模型的推理过程并鼓励用户提供反馈:

  • 为 AI 输出提供理由。例如,“根据您之前的输入内容,建议使用专业语气。”这有助于用户了解系统遵循的是明确定义的逻辑,而不是隐藏的判断。
  • 为用户提供有意义的控制权。允许用户通过设置或提示调整模型行为,例如选择语气、复杂程度或视觉风格偏好设置。
  • 更轻松地报告偏见或不准确之处。问题标记越简单,您获得的真实世界数据就越多,从而可以改进 AI 系统。
  • 实现反馈闭环。不要让用户报告消失。将这些数据反馈到重新训练或规则逻辑中,并以醒目的方式分享进度:“我们已更新审核流程,以减少推荐中的文化偏见。”

偏见源于数据,通过模型放大,并体现在用户体验中。您可以从 AI 系统的所有三个层级着手解决此问题:

  • 数据:使数据源透明且平衡。
  • 智能:检测、测试和缓解输出中的偏差。
  • 用户体验:通过控制和反馈,帮助用户识别和纠正偏差。

信任与透明度

信任决定了用户是否会使用、采用和推荐您的产品。

大多数用户都希望应用具有可预测性。例如,按钮点击始终会执行指示的操作,并前往同一位置。AI 打破了这种预期,因为其行为变化很大,而且往往难以预测。此外,AI 系统本身就存在潜在的故障风险:语言模型会产生事实幻觉预测模型会错误标记数据,以及代理会失控

您的用户是防范这些错误的最后一道防线。

您的目标应该是让用户达到中间位置,即校准后的信任度。信任不足和过度信任都会导致问题。

起初,用户可能会低估或高估您的系统。 信任不足意味着他们不会使用该系统,而信任过度意味着他们会完全接受输出,而不检查是否存在错误。您的任务是将用户拉入校准信任的黄金中间地带,让他们依靠 AI 提高效率,同时仍对最终结果负责。

数据

在数据层,通过清晰说明数据的覆盖范围和来源来建立信任:

  • 明确说明数据来源和沿袭。
  • 记录数据新鲜度和过时情况。
  • 说明模型见过哪些类型的内容,以及模型可能在哪些方面遇到困难,例如非英语数据。

随着 AI 系统日积月累地收集互动和反馈,请考虑维护数据的版本化快照,以便说明输出是如何演变的。

智能

在智能层中,您可以通过可解释性、置信度指标和模块化设计来管理信任度:

  • 提供情境化、适时的说明。根据活跃用户悖论,最好在互动过程中直接嵌入情境化微说明,以便用户在使用 AI 系统时了解其运作方式。
  • 提前说明限制和故障模式。告知用户 AI 可能出错的地方。例如,“避免使用幽默或专业术语,以获得更好的结果。”简短的上下文提示可提高透明度,同时不会中断流程。
  • 置信度指标和回退逻辑可确保 AI 在不确定情况下保持可靠性。您可以根据概率得分或过往成功率等代理变量来估计置信度。为明显不正确的输出定义安全回退。
  • 模块化架构可提高 AI 的透明度。例如,如果写作助手分步骤处理语法、风格和语气,请指明每个阶段发生了哪些变化:“语气:不太正式;复杂程度:简化”。

用户体验

用户体验为您提供了一个广阔的平台,让您能够建立和校准信任。以下是一些可以尝试的技巧和模式:

  • 调整教育内容。不要假定用户是 AI 专家。 为高级用户提供简明指南,为新手提供详细说明。
  • 应用逐步披露。从细微的提示开始。添加声明您使用了 AI 的文案,例如“此内容是自动生成的”,并允许用户点击以获取更多数据洞见。
  • 通过可见的结果来闭合反馈环。当用户对 AI 建议进行评分、更正或替换时,请说明他们的输入如何影响未来的行为:“您更喜欢简洁的回答。相应地调整了语气。”公开范围可将反馈转化为信任。
  • 妥善处理错误。当系统出错或给出低置信度结果时,请确认并委托用户进行审核。例如,“此建议可能与您的意图不符。在发布前进行审核。” 通过允许用户重试、修改或恢复到安全回退状态,提供清晰的后续操作路径。

简而言之,为了解决 AI 的不确定性和固有的出错可能性,引导用户从怀疑或过度依赖转向适当的信任校准:

  • 数据:公开透明地说明数据来源。
  • 智能:使推理模块化且可解释。
  • UX:设计应逐步清晰化,并提供反馈。

要点总结

在本模块中,我们探讨了 Responsible AI 的三大核心支柱,即隐私保护、公平性和可信度。这可能会让人感到不知所措,尤其是当您刚刚起步或尝试从原型设计过渡到生产时。

将精力集中在最关键的领域,并定义您自己的 AI 治理方法。迭代是关键。每次发布和收集用户反馈都会让您更清楚地了解系统在哪些方面需要更多护栏、透明度或灵活性。

资源

以下是一些关于本模块中介绍的主题的更高级资源:

资源

以下是一些关于本模块中介绍的主题的更高级资源:

检验您的掌握情况

在 AI 数据收集方面,建议采取哪些隐私权保护措施?

收集尽可能多的数据,以防日后需要。
回答不正确。
仅收集学习所需的必要数据,并移除所有 PII。
太棒了,回答正确!
无限期保留所有日志,以便跟踪长期趋势。
回答不正确。 日志绝不应无限期存储。

什么是校准后的信任度?

当用户始终认为 AI 是正确的。
请重试。
当用户因不信任 AI 而拒绝使用 AI 时。
请重试。
中间地带:用户依靠 AI 提高效率,但仍会验证结果。
太棒了,回答正确!
用户与开发者之间的法律合同。
请重试。

为了确保“智能”层面的公平性,开发者可以采取哪些措施?

假设训练数据无偏差。
请重试。
从数据库中移除所有人口统计数据。
请重试。
生成多条输出内容,并根据中立性和多样性对它们进行排名。
太棒了,回答正确!
完全依赖模型的默认行为。
请重试。

有哪些可用于赢得客户信任和提高透明度的用户体验技巧?

从简短的提示开始,并提供指向其他信息的链接,例如提示框。
太棒了,回答正确!
向用户隐藏所有复杂性和逻辑
不太对。虽然您应避免让用户感到不知所措,但有些用户会想要了解更多信息。
强制要求所有用户使用 AI 功能。
回答不正确。
更改模型行为,但不通知用户。通知令人困惑。
回答不正确。 如果更改会影响用户体验,您可能需要通知用户。