我之前写了一篇十分具体的文章,比照 ChatGPT 和 Claude 2,在许多方面解说了为什么 Claude 2 比 ChatGPT 差劲,尤其是 GPT-4。尽管我一向是 ChatGPT Plus 用户,但其实我也常常用 Claude 2,由于它有 GPT-4 一些无法超越的才能。本文将共享我的实际经历,介绍我在什么场景下会用到 Claude 2。同时也会依据我对这大模型的了解,剖析我这样做背后的原因。
场景1:处理长文本
和 ChatGPT 相比,Claude 2 最大的优势便是它高达 10 万的 Token 数量。要知道规范的 GPT-4 才 8000,而 GPT-32K 也仅仅 3 万 2。
和 ChatGPT 或 Claude 2 这样的大模型对话就像与一个拥有短期回忆的朋友谈天。它能够记住你最后说过的几句话,经过了解上下文,让对话顺利进行。而 Token 数量就像是大模型的短期回忆,Token 数量越大,它能记住的东西越多。因此,当你向 ChatGPT 提交过长的文本时,它常常会出现下图所示的错误信息。
解决方案当然也有许多,比方:
- 在 OpenAI Playground 中运用 Token 数量更大的模型,比方 “GPT-4.5-turbo-16k” 或 “gpt-4-32k”。可是这样需求额外消耗 API 的费用。
- 写一个提示词,告知 ChatGPT 你将会把提交的内容分为若干部分依次上传。提示词能够这样写 “The text that I’m about to submit will be divided into several parts. I request that you wait until all parts have been provided before summarizing or answering any questions about it. (我即将提交的文本将分为几个部分。我恳求您比及所有部分都供给完之后,再对其进行总结或答复任何问题。)”。上传结束今后,你再向 ChatGPT 提问题或许分配任务。
- 运用谷歌浏览器插件 “ChatGPT File Uploader Extended”。这个插件会主动帮你把文件里的长文本分为若干部分提交给 ChatGPT。
- 放到记事本文件里并运用 ChatGPT 的代码解说器上传。
如何让 ChatGPT 接纳或输出万字长文,打破 Token 约束
尽管以上方法能够绕过 ChatGPT 的 Token 约束,但仍是不如直接把长文本复制粘贴到 Claude 2 来的便利。
场景2:上传文件
除了和 ChatGPT 进行对话以外,我们常常会让它帮我们执行任务,比方总结 PDF 的内容。ChatGPT 自身是不支撑文件上传的,假如要上传 PDF 并总结内容,需求借助 ChatGPT 插件。大多数插件是不支撑文件上传的,只能总结在线 PDF 的内容。
AskYourPDF 这个插件尽管支撑上传,可是得脱离 ChatGPT 进入 AskYourPDF 的网站上。 它总结文件里长文本十分有效,但它们是经过自己的服务器对长文本进行二次处理,需求你花费额外的等待时刻。自身 GPT-4 的响应速度就比较慢,再加上插件执行任务的时刻,真的需求耐心等待。
比方我上传了一个学术论文,并问它论文里的现实,假设和结论是什么。它需求调用三次 API,然后汇总出一个答案。
Claude 2 就不同了,你能够直接在谈天界面上上传文件,并且还能够一次上传 5 个文件。它和 PDF 交互十分敏捷。关于程序员来说,能够直接把多个代码文件同时上传并 Debug。
当然,它对文件的处理停留在文本层面,无法像 ChatGPT 的代码解说器相同经过代码处理文档,比方给 PDF 加水印,修改图片等等。
场景3:进行冗长的多轮对话
提到这里,你或许在想,既然 ChatGPT 的 Token 容量这么小,那么当我和它进行了那么多轮冗长的对话之后,它怎样还记得我开头说的内容。
其实它会依据你最近一次的恳求内容,有选择性的截取你和它对话中最相关的内容,乃至还能够进行屡次迭代来了解上下文。但本质上仍是没有打破 Token 的约束,假如对话超出此范围,模型就会开始“忘掉”之前的部分。比方一开始你给它设定一个人物,它在后续的对话过程中会忘掉之前的部分。假如想让它一向记住某些关键信息,一个技巧便是时不时地提醒它。
因此,当我要进行许多轮冗长的对话时,也会考虑运用 Claude 2,取决于我对答复质量的要求。Claude 2 尽管 Token 容量很大,可是模型自身的参数比较小,所以它答复的质量许多时分比不上 GPT-4。
场景4:我的提示词里涉及2021年9月之后的信息
我们都知道 ChatGPT 3.5 和 ChatGPT 4 的练习数据是在 2021 年 9 月之前,关于之后发生的事情并不了解。可是 Claude 2 的练习时刻要晚许多,大约停留在 2022 年11 月。比方我问它 2022 年11 月的重大事情它就知道,而 12月的事情它就不知道了。
尽管这 1 年多的练习数据听上去不算什么,可是缺了这些常识有时分会很尴尬。比方我常常需求 ChatGPT 协助我在 Midjourney 上绘图。尽管它知道许多艺术类的常识,可是却完全不懂什么是 Midjourney,由于 Midjourney 的测试版 22 年才发布。
尽管我屡次把有关 Midjourney 的一长串布景常识告知 GPT-4,可是在后续的对话中它常常就忘掉 Midjourney 是什么,然后生成了许多啼笑皆非的答复。为什么它会忘掉呢,其实仍是受制于 Token 约束,这一点我刚才解说过了。
Claude 2 则不同了,它知道 Midjourney 是什么,乃至知道如何写 Midjourney 提示词,尽管它对此的了解还停留在 2022 年。比方我问它如何写 Midjourney 提示词,它给的答案简直没有问题。
所以在许多情况下,我会用 Claude 2 辅助我写 Midjourney 的提示词,这一点 GPT-4 无法代替。
共享完毕,感谢阅读 欢迎点赞,保藏,评论
更多免费原创教程,关注大众号:我的AI力量