在使用 AI 工具和生成新内容时,需要考虑许多道德因素。谁拥有输出内容,特别是受到受版权保护的资料严重影响或直接复制自受版权保护的资料?对于大型语言模型 (LLM) 所分析数据,我们该如何看待人为偏见?
作为网络从业者,以审慎且负责任的方式构建新技术至关重要。全世界都在努力回答这些问题(甚至更多)。我们无法面面俱到,但可以就您使用 AI 时的道德理念展开对话。
以下是使用 AI 工具以及使用 AI 工具进行构建时需要考虑的一些重要方面:
- 内容所有权和版权。版权是对作者原创作品的一项法律保护。法律因国家/地区而异,许多国家/地区正在争论 AI 生成的内容会怎样。每次发布内容时,您应该知道以下问题的答案:您是否侵犯了他人受版权保护的内容?这可能比您预想的更难回答!
- 偏见和歧视。计算机和算法是由人类构建而成,且基于人类收集的数据进行训练,因此存在人为偏见和有害的成见。这会直接影响输出。
- 隐私和安全。这对所有网站和 Web 应用都非常重要,尤其是在包含敏感信息或个人身份信息的情况下。使用 Cloud API 将用户数据公开给更多第三方是一个问题。任何数据传输都必须安全并受到持续监控,这一点非常重要。
Google 的 AI 原则
我们致力于以负责任的方式开发技术,并建立我们不会涉足的特定 AI 领域。事实上,Google 已承诺多项 AI 原则,其中一个中心团队专门负责治理和实现。
简而言之,我们的 AI 应用目标如下:
- 对社会有益。
- 避免产生或加剧不公平的偏见。
- 在确保安全的前提下审慎开发和测试。
- 对用户负责。
- 纳入隐私保护设计原则。
- 秉持严苛的科学卓越性标准。
- 用于符合上述原则的用途。
虽然我们作为 Web 开发者,可能并不总是负责创建模型和收集用于训练 AI 工具的数据集,但我们要负责自己使用的工具以及使用 AI 创建的最终产品。
网络上的组织需要思考道德问题
有很多公益组织、非政府组织 (NGO) 和其他公司,致力于打造合乎道德的 AI 及其工作和研究。
以下仅举几个例子。
这一领域还有很多工作要做,而且还有许多其他注意事项有待发现。对于我们制作的每一项内容,我们都有意做到道德考量。