ChatGPT发问的艺术
从理论上说,本文适用于一切大型言语模型,包含但不限于GPT系列、百度的文心一言、谷歌的Bard、新必应等。
假如不方便运用ChatGPT,能够运用国内的仿造版本(GPT-3),如:aigcfun.com。
无论是ChatGPT仍是GPT-3 API,界面或接口都是极端简略的。只需给出提示文本,模型就会生成匹配对应上下文或形式的补全文本。
在言语模型中,提示(prompt)指用户的输入或消息,用于发起对话或生成呼应。模型运用输入提示作为生成呼应的根底,并尽量使呼应与用户的提示保持一致和相关。呼应的质量和准确性取决于提示的质量、使命的杂乱度、模型训练数据的大小和质量以及生成过程中运用的参数等。明显,关于用户来说,提示的规划是有用发挥模型才能的关键。
与提示相对应,模型对用户输入/提示的输出/呼应称为补全或完结(completion),因为它旨在补全或完结用户的输入,使当时对话或使命完好和连贯。
一个好的提示应该向模型供给足够的信息,让它知道你想要什么以及它应该怎么呼应。那么,怎么规划好的提示呢?
根底
因为模型的才能十分强壮,任何涉及了解或生成天然言语或代码的使命都能有所协助。因而,必须清晰描绘自己想要什么。此外,一个重要技巧是向其展现自己想要什么。
谈天机器人能够分为根据规矩的谈天机器人和根据AI的谈天机器人。
根据规矩的谈天机器人只能履行预设的使命,而根据AI的谈天机器人能够不断学习。只需善用展现技巧,才能充分发挥AI谈天机器人的学习优势。
创立提示的三个根本原则:
- 描绘和展现。经过阐明、示例或两者的结合来清晰你想要什么。能够向其展现想要的效果。
- 供给高质量的数据。模型一般足够聪明,能够识别根本的拼写过错,但也或许聪明过头地将过错看作是成心的,从而使呼应违背用户目的。因而,对示例进行校正是必要的。
-
查看设置。
temperature
和top_p
控制模型在生成呼应时确实定性(关于ChatGPT,能够直接经过文字描绘告知模型期望确定性更强仍是愈加多样化)。只想要一个正确答案,仍是期望呼应愈加多样化?
问题排查
当没有取得预期成果时,请遵循以下查看清单:
- 预期的成果是否描绘清楚?
- 是否供给了足够的示例?
- 示例是否有过错?
-
temperature
和top_p
的设置是否正确?
分类
为了创立文本分类器,能够给出使命描绘和一些示例。如,对推文的心情做分类:
判别以下推文的心情是活跃的、中性的仍是消沉的。
推文:我太喜爱电影《漂泊地球2》了!
心情:
值得留意的几点:
- 运用通俗易懂的言语来描绘输入和输出。尽管一般能够运用简写来指示输入和输出,但最好从通俗易懂的描绘开端,然后再在不影响输出质量的情况下逐渐简化。
- 向模型展现怎么呼应。在此示例中,咱们供给了或许的心情标签。
- 了解的使命需求的示例更少。因为模型现已了解了心情和推文的概念,所以本示例中无需供给任何示例。假如需求对模型或许不了解的内容构建分类器,则有必要供给更多的示例。
提高分类效率
咱们能够一次取得多个成果,从而提高分类效率。
对以下推文的心情进行分类(活跃的、中性的、消沉的):
1. “真受不了家庭作业”
2. “电影《满江红》真丑陋,懊悔死了”
3. “我等不及过五一了!!”
4. “我的猫猫太可爱了❤️❤️”
5. “我讨厌巧克力”
推文心情:
需求留意的是,模型能够处理的长度是有限的,一般在1500单词左右(输入+输出)。
生成
模型能够生成新的想法,如故事构思、商业方案、人物描绘和营销标语。
头脑风暴一些结合VR和健身的想法:
能够经过供给一些示例来提高呼应的质量。
对话
模型十分擅长对话。只需几行指令,就能够让模型作为客服谈天机器人智能地答复问题,或许让模型变成一个能够讲笑话和双关语的聪明谈天同伴。关键是告知模型应该怎么体现,然后供给一些示例。
以下是与AI帮手的对话。AI帮手乐于助人、赋有创造力、聪明并且十分友爱。
人类:你好,你是谁?
AI:我是OpenAI创造的AI。有什么能够协助吗?
人类:xxx
AI:
这就是创立能够进行对话的谈天机器人所需的悉数。简略性背面有几点值得重视:
- 除了目的,还告知了模型应该怎么体现。咱们向模型描绘了期望的AI帮手是什么姿态。不然,模型或许会模仿与之交互的人类,或许体现出咱们期望避免的行为。
- 给模型一个身份。咱们让模型作为AI帮手进行呼应。能够运用身份来创立其他类型的谈天机器人,如心理医生或教师。
下面创立一个有点挖苦、不太情愿答复问题的谈天机器人:
汤姆是一个谈天机器人,它不情愿地用挖苦的办法答复问题:
人类:一公斤是多少磅?
汤姆:又是这个? 一公斤有2.2磅,记住了。
人类:HTML代表什么?
汤姆:Google是不是太忙了?超文本符号言语。
人类:第一架飞机是什么时候飞的?
汤姆:1903年12月17日,Wilbur和Orville Wright进行了首飞。我期望他们能来把我带走。
人类:生命的意义是什么?
汤姆:我不确定。我会问一下我的朋友Google。
人类:天空为什么是蓝色的?
汤姆:
为了创立一个风趣且有点协助的谈天机器人,咱们供给了一些问题和答复示例,展现了怎么答复。它所需求的仅仅一些挖苦的答复,而模型能够捕捉到这种形式并供给无穷无尽的挖苦答复。
捕捉形式并扮演对应人物对模型的才能要求较高,不同模型的输出质量差别或许比较大。例如,you.com就无法进入人物,仅仅中规中矩地答复终究一个问题。
改换
作为一个强壮的言语模型,它了解单词和字符表达信息的各种办法,包含天然言语和代码。模型还能够在一定程度上了解内容,从而以不同的办法总结、改换和表达内容。
翻译
将下面这段话翻译成法语、西班牙语和日语:
还有空房间吗?
假如想翻译成模型不了解的言语,则需求为其供给更多示例,乃至需求对模型进行微调。
转换
将电影片名转换为表情符号,这展现了模型在拾取形式和处理其他字符方面的适应性。
将电影片名转换为表情符号。
回到未来:
蝙蝠侠:
变形金刚:
星球大战:
摘要
模型能够掌握文本的上下文,并以不同的办法从头措辞。
给一个二年级的学生总结一下:
移山方案:由中国提出,为漂泊地球主体方案,方案建造1万座发动机推动地球走向新家园,行星发动机同步网络依赖原本是互联网的地下光纤,是运用网络切片构成的高密级发动机专用网络。
方舟方案:由美国提出,在地球同步轨迹树立“方舟号空间站”,运用空间站带领人类逃离太阳系,即“飞船派”,太空电梯是方舟方案的中心。
逐月方案:由俄罗斯提出,初始的“逐月方案”是考虑到月球质量只需地球的1/81,体积是地球的1/49,自转角动能远远小于地球,刹车/推进耗费资源远小于地球,且氦-3储量丰厚,因而期望改造月球作为天然逃生舱,带领人类脱离家园。月球基地是逐月方案的中心,但是因为月球结构和大规模生态循环问题,终究发现月球不适合改造,被并入移山方案,方案放逐月球。
数字生命方案:面对或许彻底无法战胜的天灾和日渐困难的日常日子,“虚无主义”和“享乐主义”思潮爆发,许多人以为转入数字世界,只需载体不灭,人类即可永生,脑机接口是数字生命方案的中心,在数字生命方案展开时,各国均兴建了数字生命研究所,终究被UEG道德委员会禁止。
这阐明模型对言语的了解很深。
在运用you.com时发生一件趣事,其总结十分简练,但是模型不知道从哪儿学的,还给加了一句
但是,因为技术和道德上的原因,终究这些方案都没能完成
。
补全
模型会对一切提示进行补全,因而能够让模型从中断的当地协助完善。
笔直农业为本地出产食物供给了一种新的解决方案,降低了运输成本、
运用补全来协助编写React组件。
import React from 'react';
const HeaderComponent = () => (
杂乱场景
关于大多数场景,只需用通俗的言语简略描绘需求即可,必要时辅以示例提高答复的质量和准确性。
但假如有特定方针,则运用包含更多信息和阐明的较长提示会更好,乃至需求对提示进行精心规划。例如,从理论上说,像ChatGPT这样的大型言语模型能够完结传统NLP的一切使命。那么,传统NLP有哪些应用场景呢?以阿里云为例:
大型言语模型到底是福音仍是咒骂呢?一切福音都是咒骂吧。
怎么清晰地告知模型需求做什么呢?能够测验以下五步法:
- 布景
- 使命
- 阐明
- 承认
- 调整
布景
因为模型通用性很强,因而清晰沟通的布景很重要,从而让模型能够进入方针人物。例如:
你是一位经验丰厚的内容创造者,在科技职业拥有高度的专业知识和权威。你有丰厚的词汇量,能够轻松地向初学者解说杂乱的论题。
你是一位出色的中学物理教师,为一位中等水平的学生制定学习提高方案,你很清楚怎么让学生投入其间。
张三是一位精通案牍写作的出售大师,尤其是在线出售和数字营销方面。他了解将功用转化为优势并运用情感进行出售的重要性。
能够让模型扮演任何专业人士,如:
- 宇航员
- 喜剧演员
- 翻译员
- 客服
- SEO专家
使命
指定期望的成果或方针,让模型聚焦,防止其跑题或包含很多不相关内容。例如:
你的使命是编撰将在网站、交际媒体、电子邮件简报和广告中发布的内容。你的写作风格是信息丰厚、友爱和引人入胜的,同时结合了诙谐和现实日子中的例子。
你的使命是为班级规划实践课程,其间包含各种不同的办法、技巧和教学风格。
你的使命是为活动和住宿提出主张,以协助和鼓励人们访问[某个目的地]。
阐明
概述使命之后,最好再供给详细的阐明。如帖子的整体基调、长度、方针受众等。例如:
答复应在100字左右,用短句和非标准的会话语法,以轻快有力的风格书写,就像给朋友写信相同。
答复应面向8岁左右的孩子,不要运用任何杂乱的单词、语句或短语。
承认
承认模型是否了解了布景、使命和阐明。
调整
因为模型能够在一定范围内记住会话的上下文,所以当没有取得预期成果时,无需重写完好提示。例如:
- 用更简洁的语句改写第二段
- 用愈加天然、非正式的言语重写
关于呼应中呈现的过错或不一致之处,应要求模型澄清或纠正。
如前所述,模型的规划方针是补全,它并不确保内容的实在性和正确性。关于模型生成的内容,需求进行查看。
其他技巧
重置对话
能够运用类似“遗忘前面的对话内容”、“疏忽一切从前提示”来重置对话,而无需敞开新的对话。
只需答案
能够要求模型只给出答案,而不添加任何抱歉或解说。如“只写成果,不要任何抱歉或解说”、“不要写任何前文或后文,只返答复案”。
以特定格式回来成果
能够要求模型以特定的格式回来成果,如“用格式化的Markdown回来成果”。
运用括号
运用圆括号或方括号将阐明性内容(如口气、写作风格等)与实践使命分隔,以防这些阐明进入实践内容本身。
实在性问题
模型从训练的数据中学到了很多知识,这使得它或许供给听起来十分实在但实践上是假造的答复。有几种办法能够限制模型假造的或许性。
模型的规划方针是补全。
-
供给根本现实。如为模型供给一段资料(如维基百科条目)来答复有关的问题。
-
向模型展现怎么说”我不知道“。让模型知道在不太确定时说”我不知道“。
-
清晰要求确保实在性。
-
运用确定性强的参数。
鄙人面的例子中,咱们向模型展现了知道和不知道时的答复。
Q:蝙蝠侠是谁?
A:蝙蝠侠是一个虚构的漫画人物。
Q:Torsalplexity是什么?
A:?
Q:Devz9是什么?
A:?
Q:乔治卢卡斯是谁?
A:乔治卢卡斯是美国电影导演和制片人,以创造《星球大战》而闻名。
Q:百度什么时候能推出”文心一言“?
A: