prompt的演变

跟着功用的增加,提示工程的复杂性将不可避免地增加。在这里,我解说了如何将复杂性引进到提示工程的进程中。

静态prompt

如今,实验prompt和提示工程已司空见惯。经过创立和运行提示的进程,用户能够体验 LLM 的生成能力。

文本生成是大型言语模型的元能力,及时工程是解锁它的要害。

在实验 Prompt Engineering 时收集到的首要原则之一是不能明确要求生成模型做某事。

相反,用户需求了解他们想要完成的方针并仿照该愿景的发动。仿照的进程被称为prompt规划、prompt或铸造。

Prompt Engineering 是向 LLM 供给辅导和参阅数据的方式。

在提示中引进集合结构能够从 LLM 取得更精确的呼应。例如,如下所示,能够对提示进行上下文规划,为 LLM创立上下文参阅。

prompt的演变

上下文规划的提示通常由三个部分组成,instructioncontextquestion

这是上下文提示的实践示例:

prompt = """运用供给的文本尽可能如实答复问题,假如答案未包括在下面的文本中,则说“我不知道” 背景:2020 年夏日奥运会男人跳高
项目
采用2021 年 7 月 30 日至 8 月 1 日在奥林匹克体育场举行。来自 24 个国家的 33 名运动员参加了竞赛;可能的总人数取决于除了经过分数或排名的 32 个资格赛(没有遍及名额)之外,还有
多少国家运用遍及名额进入运动员
于 2021 年运用)。
意大利运动员 Gianmarco Tamberi 和卡塔尔运动员 Mutaz Essa Barshim 成为竞赛的联合获胜者
当他们铲除 2.37m 时,他们两人之间的平局。坦贝里和巴尔希姆都同意共享金牌,这
在奥运会历史上是稀有的,不同国家的运动员同意共享同一枚奖牌。
特别是 Barshim 被听到问竞赛官员“咱们能有两个金牌吗?” 作为对
“跳下”的回应。白俄罗斯的 Maksim Nedasekau 取得铜牌。这枚奖牌是意大利和白俄罗斯在男人跳高项目上的首枚奖牌
,意大利和卡塔尔在男人跳高项目上的首枚金牌,以及卡塔尔男人跳高项目接连第三枚奖牌
(均由巴尔希姆取得)。
Barshim 成为继瑞典的Patrik Sjberg(1984 年至 1992 年)之后第二个在跳高竞赛中取得三枚奖牌的人。
问:谁赢得了 2020 年夏日奥运会男人跳高冠军?
A:""" 
openai.Completion.create( 
    prompt=prompt, 
    temperature=0, 
    max_tokens=300, 
    top_p=1, 
    frequency_penalty=0, 
    presence_penalty=0, 
    model=COMPLETIONS_MODEL 
)["choices"][0]["text "].strip("\n")

在此阶段,提示本质上是静态的**,不构成较大应用程序的一部分。

prompt模板

静态prompt的下一步是prompt模板化。

静态prompt被转换为模板,其中键值被占位符替换。占位符在运行时被替换为应用程序值/变量。

有些人将模板化称为实体注入 prompt注入

在下面来自DUST 的模板示例中,您能够看到占位符${EXAMPlES:question}${EXAMPlES:answer}而且${QUESTIONS:question}这些占位符在运行时被替换为值。

prompt的演变

prompt模板允许prompt存储、重新运用共享和编程。生成prompt能够合并到程序中以进行编程、存储和重复运用。

模板是带有占位符的文本文件,能够在运行时在其中刺进变量和表达式。

prompt Pipelines

在prompt Pipelines的情况下,预界说的提示模板填充了来自用户的问题或请求。辅导 LLM 的prompt中包括的上下文或参阅是从知识库中检索的数据。

prompt的演变

Prompt Pipelines 也能够描绘为对提示模板的智能扩展。

因此,预先界说的prompt模板中的变量或占位符被填充(也称为prompt注入)来自用户的问题,以及要从知识库中查找的知识。

来自知识存储的数据充任要答复的问题的上下文参阅。具有这些可用的信息能够避免 LLM呈现错乱。该进程还有助于避免 LLM 运用模型中其时不精确的过时或旧数据。

随后,将组合的提示发送给 LLM,并将 LLM 呼应返回给用户。

下面是在文档和问题数据被注入之前的prompt模板示例。

prompt的演变

prompt链接

prompt链接是将多个prompt链接或排序以构成更大应用程序的进程。prompt序列能够串联或并联排列。

当prompt按顺序排列时,链中的提示(也称为节点)通常取决于链中前一个节点的输出。在某些情况下,数据处理和决议计划制定案例是在提示/节点之间完成的。

L LM 用处广泛,具有开放式功用。

在某些情况下,进程需求并行运行,例如,能够在用户与谈天机器人对话时并行发动用户请求。

Prompt Chaining 将主要由用于输入的对话式 UI 组成。输出也将主要是非结构化的对话输出。因此创立了一个数字助理或谈天机器人。提示链接也可用于流程和管道发动并通知用户成果的 RPA 场景。

当经过可视化编程 UI链接大型言语模型提示时,功用的最大部分将是促进创作进程的 GUI。

下面是用于prompt工程和prompt链创作的此类 GUI 的图像。此规划源自华盛顿大学和谷歌进行的研究。

prompt的演变

综上所述

“最后一英里”一词常常用于生成式 AI 和大型言语模型 (LLM) 的出产施行环境中。保证人工智能的施行的确处理了企业问题并完成了可衡量的商业价值。

出产施行需求面对客户的严厉和审查,以及持续扩展、更新和改进的需求。

LLM 的出产施行需求:

  1. 用于微调 LLM 的精选和结构化数据
  2. 生成 AI 的监督方法
  3. 根据 LLM 的应用程序的可扩展和可管理的生态系统