适用于 Google Cloud 的 Gemini 和 Responsible AI

本文档介绍了 Google Cloud 专用 Gemini 的设计初衷,是为了确保: 与生成式 AI 相关的功能、限制和风险。

大语言模型的功能和风险

大语言模型 (LLM) 可以执行许多实用任务,例如 以下:

  • 翻译语言。
  • 总结文本。
  • 生成代码和创意撰写。
  • 强大的聊天机器人和虚拟助理。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力不断演变, 潜在的滥用和滥用情况,以及意想不到的或无法预料的后果。

LLM 可能会生成意料之外的输出,包括冒犯性文字、 麻木不仁或与事实不符的内容。由于 LLM 用途广泛, 要准确预测 它们可能产生的输出。

考虑到这些风险和复杂性,Google Cloud 专用 Gemini 的设计 Google 的 AI 原则 。不过,用户有必要了解 适用于 Google Cloud 的 Gemini,安全负责地工作。

Google Cloud 专用 Gemini 限制

使用 Gemini 时可能会遇到的一些限制 包括(但不限于)以下内容:

  • 极端情况 -边缘情况是指不寻常、罕见或特殊情况 训练数据没有得到很好的代表。这些情况可能会导致 Gemini 模型输出的限制,例如 过度自信、误解背景或不恰当的输出。

  • 模型幻觉、依据和事实。Gemini 模型可能缺乏对现实世界知识、现实世界的 或准确的理解。这一限制可能会导致 Google Cloud 专用 Gemini 可能 生成听起来看似合理但与事实不符的输出, 不相关、不当或无意义的内容。幻觉还可能包括 编造指向不存在且从未存在过的网页的链接。对于 请参阅 针对 Google Cloud 专用 Gemini 撰写更好的提示

  • 数据质量和调优。提示的质量、准确性和偏差 输入到 Google Cloud 专用 Gemini 中的数据 可能会对效果产生重大影响。如果用户输入 不准确或不正确的提示;Google Cloud 专用 Gemini 可能返回欠佳或错误响应。

  • 偏见放大。语言模型可能会无意中放大现有语言的 训练数据中的偏见,从而产生可能会进一步强化 某些群体的社会偏见和不平等的待遇。

  • 语言质量。而 Gemini for Google Cloud Google Cloud 可提供令人印象深刻的多语言功能, 大多数基准(包括所有 公平性评估)使用美式英语。

    语言模型为不同用户提供的服务质量可能会不一致。 例如,文本生成功能对某些方言或 因为它们在训练数据中的代表性不足。 对于非英语或英语,效果可能会更差 具有代表性较低的品种。

  • 公平性基准和子群组。Google 研究团队的公平性分析 Gemini 模型并不会详尽说明 潜在风险例如,我们重点关注性别、种族、 种族和宗教坐标轴,但仅对美国 英语数据和模型输出。

  • 领域专业知识有限。Gemini 模型经过训练 但可能缺乏相关知识深度 您需要准确、详细地回答这些问题, 专业性或技术性主题,会导致浅显或错误 信息。

    使用 Google Cloud 控制台中的 Gemini 窗格时,请注意以下事项: Gemini 无法感知情境,无法感知具体环境, 它无法回答“我上次创建虚拟机是什么时候?”

    在某些情况下,Google Cloud 专用 Gemini 会将特定的 将上下文片段传递给模型,以接收特定于上下文的 响应,例如,当您点击问题排查建议 按钮。

Gemini 安全和恶意过滤

已勾选 Gemini for Google Cloud 提示和回答 安全属性的完整列表(适用于每种用途) 这种情况。这些安全属性旨在滤除违反我们 使用限制政策。如果输出为 视为有害的,系统会屏蔽相应响应。

后续步骤