前言
随着chatGPT的发布,AI从原来的伪智能正式走向了可落地的强智能,特别是在AIGC范畴,已经有不少公司有实际落地的比方,且取得了较好的作用,依据此,怎么将AI与事务更好的结合,赋能事务快速高效开展,是摆在当代每家公司或安排面前必须要答复的一个出题,而关于一切期望运用AI才能的公司和个人来说,了解和把握和AI交流的桥梁:Prompt,便成为一个must to have的技能。本文将全面解析Prompt的界说、功用、作业机制以及最佳实践,为读者深化浅出的介绍何为Prompt,它是怎么作业的以及怎么写出一个好的Prompt
什么是Prompt
纵观整个核算机的开展史,会发现,人类与核算机体系的交流办法门槛越来越低,办法越来越高档,从最早依据少数人把握的汇编言语与硬件直接交互,到后来的面向操作体系的C言语,再到后续面向运用的跨体系的Java等高档言语,其演进办法呈现几个特色:
- 门槛越来越低,体现在交流办法越来越挨近人类的思维办法,编程言语越来越易了解,办法的笼统越来越挨近现实国际(面向进程到面向对象)
- 杠杆性越来越强,体现在API的功用笼统越来越强大,对应的单位代码可以调用的才能也越来越强大
- 把握的人越来越多,从只要极少数人把握的汇编言语,到程序员变成社会的一个大职业
而这次针对大模型的Prompt可以了解为是核算机言语开展的又一次飞跃,人类第一次可以用一个如此挨近人类自然言语的办法(不完满是自然言语,这个在本文会论述)去与体系交互,调用体系的才能
在人工智能范畴,Prompt是指一段文本、问题或许使命,用来引导模型生成期望的答复、处理方案或许输出。
它的原理首要是依据自然言语处理的深度学习模型来了解和生成文本。在练习进程中,模型学习了很多的文本数据,然后把握了词汇、语法、语义和必定程度的常识常识。当用户输入Prompt时,模型会依据所学到的常识和规律来了解Prompt的意义,然后生成与Prompt相关的呼应,其作业机制首要触及以下几个方面:
- 上下文了解:模型会依据输入的Prompt来了解上下文,包括词汇、语法结构和语义联系。这关于生成与提示词紧密相关的答案至关重要。
- 生成战略:依据Prompt中的上下文信息,模型会选用必定的生成战略来发生适宜的呼应。这些战略一般包括概率散布挑选、贪心查找、束查找等,用以平衡生成成果的多样性和准确性。
当咱们向模型供给一个Prompt时,咱们实际上是给它一个使命,要求它依据咱们的输入进行相应的回应或操作。在这种状况下,Prompt可以被视为指令,引导模型履行特定使命,例如生成内容、答复问题或进行对话模拟。Prompt的作用类似于引发反响的导火线,使模型依据其练习和言语了解才能来发生有用、相关且连接的输出。
Prompt的作用
Prompt在AIGC链路上首要是辅导和操控模型生成呼应,它是用户与模型之间交流的「桥梁」
从大的纬度来说,Prompt 能起作用的当地在于:
-
激起与运用模型当时具有的才能,包括:
- 当时的大模型拥有海量的常识,但这些常识的质量或许良莠不齐,而好的 Prompt 可以将模型里高质量的信息引导出来,例如,假如用户期望模型生成一篇关于“气候变化影响”的文章,不只可以供给“写一篇关于气候变化影响的文章”的提示,还可以经过Prompt添加更多的详细辅导,例如“评论气候变化对极地生态的影响”。
- 当时的大模型拥有必定的推理才能,可是其原生的推理才能不必定能处理必定杂乱度的问题,而运用特定的 Prompt 可以激起模型具有更强的推理才能,然后对杂乱问题进行拆解
- 操控模型输出的办法,有些时分需求模型的输出依照必定的格局,比方对机器更友爱的结构化输出,或许将输出限定为十四行的诗体办法,那么可以在 Prompt 指定特定的格局。
-
缓解模型当时固有的缺陷,包括:
- 当时的大模型关于自己是否的确知道某些信息是没有感知的,体现在或许会「一本正经的胡说八道」,那么 Prompt 就可以经过一些更明晰的指令削减错觉的发生,比方在 Prompt 中加上「当该xx不存在或你不了解的时分,答复“不知道”即可,不行胡编乱造」
- 当时的大模型里大部分信息都是在预练习阶段注入的,所以就存在关于当时实时的信息的缺失,这个时分可以在 Prompt 里带上实时信息,此刻大模型在处理对应问题的时分就可以将这段实时信息兼并到其常识库里一同处理
- 与实时信息的缺失类似,当时的大模型缺失很多范畴的专业信息,那么也可以在 Prompt 里带上这部分专业信息,那么相当于大模型在答复对应问题的时分就带上了这部分专业信息
而 Prompt 作为一个和大模型交流的办法,必定有其局限性,包括:
- 无法彻底掌控模型的输出,虽然Prompt可以帮助引导模型生成具有特定特征的内容,但它无法彻底操控模型的终究输出成果。模型终究的输出还取决于许多要素,包括模型练习的数据集,模型的架构,乃至随机的元素
- 关于大模型本身的缺陷,它只能部分缓解,而无法彻底防止,比方上面提到的错觉,信息的非实时,专业信息的缺失等
- 无法替代AI模型练习,由于 Prompt供给的信息当时不会改动模型本身的结构和信息,换句话说,当和人对话的时分上次说了一件作业,也许过了一年和他从头对话还是会记住,由于这个信息经过对话的办法进入了这个人的大脑记忆,改动了部分神经元结构,可是大模型不会,至少当时没有敞开
- 无法彻底处理品德和道德问题:Prompt不能彻底阻止模型发生显露、冒犯的答案,或是违背隐私和安全规定的内容。虽然尽或许设计杰出的Prompt以防止不良输出,但终究内容的审查和管理是必要的
- 当时的 Prompt 的巨细是受限的,所以对应的 Prompt 可以带着的信息巨细也有必定极限的
Prompt的作业机制
在深化探究Prompt工程之前,咱们首要需求了解Prompt的根本作业机制。该机制包括五个要害进程:输入表明,序列编码,上下文了解,生成呼应和后处理。这些进程共同构成了Prompt的中心,使其可以有用地了解和响运用户的需求。首要,输入表明和序列编码将用户的输入转化为机器可了解的办法,这是整个进程的柱石。接着,上下文了解使机器可以洞悉输入的意义和背面的意图,这是了解和生成呼应的要害环节。然后,生成呼应依据了解的成果发生相应的输出,这是满意用户需求的直接体现。终究,后处理对生成的呼应进行优化和调整,以提升呼应的质量和用户满意度。这些进程的完结触及到各种杂乱的算法和技术,如自然言语处理、机器学习和深度学习等。在后续的文章中,咱们将详细讨论这些进程,以及它们在Prompt工程中的运用和完结。
输入表明
在NLP使命中,Prompt需求被转化为模型可了解的办法,这个进程称为”输入表明”。它保证了模型可以了解文本中的语义信息,并为后续使命供给一致的输入表明。这一进程一般触及两个首要进程:分词和词嵌入。
- 分词(Tokenization):分词是将原始文本切分为更小的单位,可以是单词、子词或字符等。这些单位被称为“tokens”。分词的意图是将自然言语文本转化为模型可以处理的根本单位。分词办法有很多种,包括依据规矩的、依据统计的以及依据深度学习的办法。
常见的分词办法包括:
- 空格分词:依照空格和标点符号将文本切分为单词,适用于词汇间以空格分隔的言语,如英语。
- 中文分词:针对中文等没有明晰词汇鸿沟的言语,选用依据词典、统计或深度学习的办法进行分词。
- 字符级分词:将文本切分为单个字符,适用于字符等级的使命,如拼写纠错。
- Subword分词:将文本切分为子词单位,如BPE(Byte Pair Encoding)和WordPiece等办法。这些办法可以有用处理未登录词(OOV,Out Of Vocabulary)问题,即在练习词汇表中不存在的单词。
- 词嵌入(Word Embedding):词嵌入是将分词后的tokens映射到接连的向量空间中的向量。这些向量可以捕捉词汇的语义信息,一同具有较低的维度,有助于模型的练习和核算。
常见的词嵌入办法包括:
- One-hot编码:为每个词汇分配一个仅有的向量,其间只要一个维度的值为1,其余维度为0。这种表明办法稀少且高维,无法表明词汇之间的语义联系。
- Word2Vec:经过猜测给定词汇的上下文或由上下文猜测方针词汇来生成词嵌入。Word2Vec包括CBOW(Continuous Bag-of-Words)和Skip-gram两种模型。
- GloVe(Global Vectors for Word Representation):经过对共现矩阵进行分解,捕捉全局的词汇共现信息。
- ELMo(Embeddings from Language Models):运用双向言语模型(Bi-LSTM)核算上下文相关的词嵌入。
- BERT(Bidirectional Encoder Representations from Transformers):运用预练习的Transformer模型生成上下文相关的词嵌入。
序列编码
随后,Prompt的词嵌入序列会被输入到模型中。关于循环神经网络(RNN)或长短时记忆网络(LSTM)等序列模型,它们会对输入序列进行逐渐处理;而关于Transformer等自注意力(Self-Attention)模型,它们可以并行处理输入序列。经过这些编码办法,模型可以捕获词汇之间的次序联系和依靠联系。
序列编码首要意图是将经过分词并转化为词嵌入的输入转化为具有上下文信息的序列表明。常见的序列编码办法包括:
- 循环神经网络(RNN):RNN是一种处理输入序列的神经网络结构,其经过维持一个躲藏状况来捕获前面的输入单元信息。在每个时刻步,RNN会依据当时输入和前一个时刻步的躲藏状况来核算新的躲藏状况。终究,每个单元的躲藏状况都包括了从序列开端到目前为止所观察到的信息,然后完结了上下文信息的编码。由于梯度消失或梯度爆破问题,RNN在捕捉长距离依靠联系方面存在局限。
- 长短时记忆网络(LSTM):LSTM是RNN的一种改进,经过引入门控机制和单元状况来处理梯度消失和梯度爆破问题。LSTM具有输入门、遗忘门和输出门,这些门可以学习调理信息在不一同刻步之间的流动。经过这种结构,LSTM可以捕获序列中的长距离依靠联系。
- 门控循环单位(GRU):GRU是另一种改进的RNN结构,其将LSTM中的单元状况与躲藏状况兼并,一同削减了门的数量。GRU具有更新门和重置门,可以学习保留或丢掉当时输入信息。虽然GRU结构相对简略,但其在捕获序列信息方面的功用与LSTM附近。
- Transformer:Transformer是一种依据自注意力机制(Self-Attention)的编码办法,其可以并行处理整个序列。在自注意力机制中,每个单词的表明都会依据与其他单词之间的联系进行加权更新。经过堆叠多层自注意力层和前馈神经网络层,Transformer可以捕获丰厚的上下文信息。由于其并行性和强大的体现才能,Transformer已经成为当今NLP范畴的主流编码办法。
经过这些序列编码办法,NLP模型可以捕获输入序列中的上下文信息和依靠联系,并为后续使命(如文本生成、分类、翻译等)供给更丰厚的表明。
上下文了解
依据编码后的表明,模型可以了解Prompt中所包括的上下文信息。这样,在给定一个新的Prompt时,模型可以依据其内部表明进行推理和剖析。上下文了解详细包括以下几个方面:
- 语义了解:模型需求了解Prompt中的词汇和短语所传达的意义。这包括辨认实体(如人名、地名等)、特色(如色彩、形状等)、动作(如跑步、学习等)以及它们之间的联系。经过词嵌入和上下文编码,模型可以捕获词汇的语义信息,并依据预练习常识进行推理和剖析。
- 句法了解:模型需求剖析Prompt中的语句结构,例如辨认主语、谓语、宾语等成分,并了解它们在语句中的作用。经过自注意力(Self-Attention)机制或循环神经网络(RNN),模型可以捕获词汇之间的次序信息和依靠联系,然后辅助句法剖析。
- 指代消解:模型需求辨认并处理Prompt中的代词或指代词所指向的实体。例如,在语句“Tom和Jerry正在跑步,他们很开心”的情境中,模型应当了解“他们”指的是“Tom和Jerry”。经过注意力机制和预练习常识,模型可以关联上下文中的代词和实体,并进行有用的指代消解。
- 语境消歧:模型需求依据上下文环境了解具有歧义性的词汇。举个比方,在语句“他在银行办理事务”中,“银行”指的是金融机构;而在语句“他在河边边垂钓”中,“河边”也可以称为“银行”。模型需依据上下文信息确定词汇的正确意义。这一般依靠于模型在预练习进程中学到的很多言语常识和经历。
- 情感和观念辨认:模型需求从Prompt中获取用户的情感和观念,并据此生成相应的回应。例如,模型应当区分正面点评(如“这部电影很美观”)和负面点评(如“这部电影很无聊”),并给出相应的建议或答复。
- 长距离依靠联系:有时,上下文信息或许被散布在距离较远的词汇之间。AI模型需求捕获这些长距离依靠联系,以更好地了解文本。Transformer等自注意力模型在这方面具有较好的功用,可以捕捉到跨过长距离的语义联系。
生成呼应
在了解Prompt的上下文信息后,模型需求生成恰当的呼应。关于生成使命(如文本生成或摘要生成),模型可以选用自回归(Autoregressive)或许Teacher Forcing办法逐渐生成输出序列。关于分类使命(如情感剖析或实体辨认),模型一般会对每个或许的类别核算一个分数,并挑选分数最高的类别作为输出成果。生成呼应进程中有以下一些重要技术:
- 输出类型:生成呼应的办法取决于使命类型。关于生成使命(如文本生成、摘要生成或翻译),模型需求生成一个接连的文本序列;而关于分类使命(如情感剖析或实体辨认),模型需求猜测一个离散的类别标签。
- 解码战略:在生成使命中,模型一般会为每个或许的词汇核算一个概率散布。这意味着,模型会依据上下文和内部表明猜测每个词在给定方位出现的概率。接下来,可以依据这个概率散布挑选输出词汇。模型依据解码战略来决议怎么从概率散布中挑选输出词汇,常用的解码战略包括贪婪查找(Greedy Search)、束查找(Beam Search)和采样(Sampling)。贪婪查找是每个时刻步挑选概率最高的单词,然后继续生成后续单词;束查找是在每个时刻步保持k个最优候选序列,从中挑选最佳途径;而采样则是依据输出概率散布随机挑选单词。每种解码战略在生成质量、多样性和功率之间取得不同的平衡。
- 自回归生成:关于自回归模型(如GPT),生成呼应的进程是逐渐进行的。模型首要生成第一个词汇,然后将其添加到输入序列中,再生成下一个词汇。这个进程会继续进行,直到生成一个特定的终止符或达到最大长度限制。
- Teacher Forcing:关于循环神经网络(RNN)或长短时记忆网络(LSTM),练习进程中或许会选用Teacher Forcing战略。在这种战略中,模型在每个时刻步都接收到实在的输出词汇,而不是自己生成的词汇。虽然这种办法可以加快练习进程,但在实际生成时或许会导致不一致的输出。
- 温度调整:在生成呼应时,可以经过调整温度值来操控输出的多样性。温度是一个超参数,用于滑润概率散布。较高的温度会使概率散布更均匀,然后发生更多样的输出;较低的温度则使概率较高的词更有或许被选中。
- 长度归一化:在生成使命中,可以运用长度归一化来平衡输出序列的长度。这意味着,在核算概率散布时,模型会倾向于生成挨近方针长度的序列,然后防止过长或过短的输出。
后处理
生成的呼应会经往后处理,将模型的输出转化为可了解的自然言语文本。这或许包括将词嵌入转化回原始单词、兼并子词以及纠正语法错误等操作。后处理是自然言语处理模型生成呼应后将模型输出转化为可了解的自然言语文本的进程,经过这一进程,咱们可以将NLP模型的输出转化为具有可读性和可了解性的自然言语文本。这一阶段包括:
- 词ID到词映射:在解码进程中,每个生成的单词都由一个整数ID表明。这些ID需求被转化为实际的自然言语单词。一般状况下,这个映射联系在分词器(Tokenizer)中可以找到,完结从词ID到词的转化。
- 子词兼并:预练习NLP模型一般选用子词(Subword)分词办法,这意味着一个实际的单词或许被分割成多个子词。在后处理阶段,依据分词规矩(如BPE或WordPiece算法),需求将这些子词从头组合成完好的单词。
- 删去特别符号:在处理模型输出时,特别符号(如结束符、填充符等)需求被删去。这是由于这些符号在模型练习时具有特定的功用(如表明序列结束或序列填充),但关于生成的可了解性文本来说是剩余的。
- 语法与拼写纠正:为了进步生成文本的质量,可以选用语法和拼写纠正工具对生成的文本进行进一步的修改。这有助于改正模型生成的语法错误和拼写错误,使输出文本更契合自然言语规范。
- 生成切断:有时分,模型生成的文本或许会过长或许不契合预期。在这种状况下,咱们可以依据特定的规矩对生成文本进行切断,以满意用户需求。例如,可以依据语句结束符(如句号、问号等)来划分生成文本,提取前n个语句作为终究输出。
怎么写出一个好的Prompt
咱们了解了Prompt的根本作业机制之后,怎么运用到咱们的Prompt工程里,让它能将普通人的输入,变成奇特的“咒语”呢?在接下来的讨论中,咱们将深化研讨Prompt应该包括哪些内容,应该具有什么特色,以及怎么去点评Prompt。咱们将从用户的输入开端,讨论怎么将这些输入转化为机器可了解的办法,然后深化了解这些输入的意义和背面的意图。咱们还将讨论Prompt应该具有的特色,以及怎么点评Prompt,以保证其可以满意用户的需求和期望。这些都是咱们在构建Prompt工程时需求考虑的要害要素,咱们期望经过这些讨论,可以帮助读者更好地了解和运用Prompt。
好的Prompt应包括的信息
依据Prompt的作业机制,咱们看到,最重要的是Prompt需求”被了解“。”被了解“意味着一个Prompt需求包括满意、无歧义的信息。这一般包括三个要害组成部分:做什么、怎么做、上下文。
每个组件都由各种元素组成,如做什么包括角色、指令和主题。这些元素可以调整、从头排列和量身定制,以创立不同的prompt“配方”。
不同的运用场景,或许不需求一切的组件或元素。比方:
把下列言语翻译成中文: I like China.
这个prompt只包括了一个元素–指令(把xxx翻译成中文)
请向面临一个10岁小孩相同给我解说黑洞概念,不要超越200字
这个prompt包括了指令–解说黑洞概念,制止项–不超越200字,受众–10岁小孩。
好的Prompt应具有的特色
为了”被了解“,prompt还应该具有以下特色:
- 短小精悍
短小精悍是指,竭尽或许简练的言语清楚地表达出问题,防止冗长和不必要的描绘。简练的prompt使模型更容易了解使命要求,削减了模型对输入的歧义了解的或许性;可以削减模型生成答案所需的处理时刻,下降模型处理使命所需的核算资源,进步体系功用。要完结短小精悍,可以经过运用直接问问题的办法、防止过度解说布景信息、移除剩余修饰词等办法。
正例:请告诉我人类的血型有哪些?
反例:我一直对人类的血液类型很感兴趣,你能告诉我关于人类血液类型有哪些方面的信息吗?
正例简练明晰地表达了问题,让AI模型可以当即了解并给出答案,而反例运用了许多不必要的描绘,如“一直对…很感兴趣”,导致问题变得冗长且不够直接。 成果输出会包括较多的冗余信息。
- 表述明晰
表述明晰是指在发问或给出指令时,运用恰当、明晰的词汇和表达,防止运用模糊或歧义的词汇。当发问或指令含糊不清时,模型或许会发生错误的了解,或供给无关或不准确的答案。
正例:谁是美国历史上最年青的总统?
反例:美国最小的那个总统是谁?
正例表述明晰明晰,指明了要问询的信息是关于美国历史上最年青的总统,模型可以直接给出答案。,而反例则表述不明晰,用户或许想问的是年纪最小的总统,但“最小”一词在此或许会发生歧义,导致模型无法准确了解问题。
- 信息完好
详细信息是指供给满意的上下文和布景信息,明晰表达出预期输出或答复类型。明晰的方针和辅导可以防止模型发生与需求无关或过于宽泛的答复,保证模型充分了解问题所触及的范围和方针,然后给出更适宜的答案。
正例:请列举20世纪最具影响力的5位科学家,并扼要说明他们的首要奉献。
反例:告诉我一些有名的科学家。
正例明晰了需求的详细内容(20世纪最具影响力的科学家)、数量(5位)以及额定信息要求(他们的首要奉献),而反例没有明晰方针导向,怎么挑选科学家、要介绍多少科学家以及是否需求供给关于他们奉献的信息都没有给出详细要求,然后或许导致AI模型给出过于宽泛或无法满意用户实际需求的答案。
- 分进程
分进程是指将一个问题或使命分解成一系列次序履行的子使命,以逐渐完结整个问题。这种办法特别合适处理杂乱且难以一次性完结的使命。经过分进程处理问题,咱们可以更易于管理和了解问题,并获得更精确的成果。
比方:
假定想要了解怎么在城市中创立一个可继续的绿色空间。可以将这个问题分解成以下进程:
- 布景了解:首要了解城市中绿色空间的重要性及其对环境和社会的影响。
- 剖析现状:点评当时城市的绿色空间,并确定存在的问题和应战。
- 提出方案:依据现状,提出几种可行的处理方案,以处理城市中绿色空间匮乏的问题。
- 点评可行性:对每个处理方案进行可行性剖析,考虑本钱、施行难度、社会和环境作用等要素。
- 拟定施行方案:依据可行性剖析的成果,挑选一个或多个最优处理方案,并拟定详细的施行方案。
- 监测和点评:施行处理方案后,继续监测绿色空间的开展状况,并对其作用进行点评,以便进行调整和完善。
在处理这个问题时,可以将每个进程作为一个独立的子使命,逐一处理。这样可以更好地安排思路,保证问题得到全面而有针对性的答复。经过分进程处理问题,可以更易于监控进展、辨认问题并及时调整战略,然后终究完结方针。
怎么衡量一个Prompt
点评一个Prompt的好坏是一件比较微妙的作业,由于Prompt更挨近一项艺术,而非精细的工程学。在选用一个Prompt之前,咱们可以对照“优异的Prompt应具有哪些特色”去点评,之后,也可以依据Prompt的运用状况来点评。
事前点评时,除了人为去点评,咱们乃至可以用魔法打败魔法,让模型来帮助咱们点评一个Prompt的好坏:
输入:
你是一个AI范畴的专家,你对AI Prompt的研讨十分深化。一个好的AI Prompt需求具有短小精悍、表述明晰和信息完好等特征。请剖析以下AI Prompt是否是一个好的AI Prompt,并给出原因,以及建议。
'''
美人鱼的结局是什么。
'''
输出:
这个AI Prompt属于一个比较杰出的Prompt。原因如下:
1. 短小精悍:这个提示直接问了要求答复的问题,没有包括剩余的信息或许杂乱的布景描绘。
2. 表述明晰:“美人鱼的结局是什么。”这个语句结构明晰,没有语法错误。
3. 信息完好:问题本身已经包括了完好的信息,明晰指出想要获取的是“美人鱼”这个故事或电影的结局。
但是,这个Prompt也有潜在的问题。"美人鱼"是一个较为广泛的主题,或许不存在仅有的结局。它或许指的是一部详细的电影(例如中国的电影《美人鱼》),也或许指的是一个详细的传说,或许是其他的故事。因而,为了保证AI能准确地答复问题,可以进一步明晰“美人鱼”的详细指代。例如,可以修改为 "《美人鱼》电影的结局是什么?"或许"依据西方传说,美人鱼的典型结局是什么?" 等。
过后点评,咱们会依靠相关的打点数据,从以下一些维度来点评Prompt的好坏:
满意度:是一个十分直观的点评指标,它可以直接反映用户对Prompt的满意度。咱们经过让用户在运用Prompt后给出一个点评(1-5分)衡量;
运用率:用户可以自己写案牍,也可以依据prompt让模型生成案牍。从这个视点来看,用户对Prompt的运用频率就成为了点评Prompt好坏的一种办法。例如,假如用户用几回就不再运用,那么就可以说明这个Prompt或许存在问题。而假如一个Prompt的运用率较高,那么就能说明用户对该prompt挺有好感和信任感;
选用率:咱们可以经过比较用户终究选用的案牍与由Prompt生成的案牍的类似度来判别是否选用,反映出Prompt的实用性以及其在详细事务场景中的适用度;
作用:依据prompt发生内容的作用,和用户自己生成内容的的作用相比较,也是衡量Prompt好坏的一个标准。例如,在广告、营销等范畴,咱们可以比较模型生成案牍的实际广告作用,与人工生成案牍的作用,评判Prompt的质量;在问答相关的场景里,咱们可以经过追寻问题是否得到处理来衡量。例如,针对某一问题,假如Prompt供给的答案被采用,问题得以处理,则可以认为这是成功的。反过来,假如问题需求转由人工处理,那么便说明Prompt在此场景下的体现不够好。
总结
就如特斯拉前首席AI科学家Andrej Karpathy所说:未来最火的编程言语将是自然言语
这里编程言语毋庸置疑便是Prompt,所以是否可以很好的了解Prompt的作业机制,书写出高质量的Prompt,将决议运用者是否可以高效的运用当时AI的才能,咱们都听说过在软件年代存在着10X工程师的说法,那么在AI年代,体系的杠杆功效更明显,是否有或许发生100X工程师?我觉得是有或许的,而这样的工程师必定也是特别精通怎么书写Prompt并与AI进行交互的人
本文首要从Prompt的根底概念与运作机制做了入门级的解说,期望让初学者可以对Prompt有一个根底的了解,一同这也是咱们AI系列文章的第一篇,后续咱们会结合公司在AI方面的探究和落地实践,推出一系列AI方面的文章,和咱们一同共同推动AI常识的遍及与运用的落地
作者
祝俊 (飞书深诺架构与平台技术,架构师)