丰色 萧箫 发自 凹非寺
量子位 | 大众号 QbitAI
声称ChatGPT“最强竞赛对手”的Claude,今天迎来史诗级更新——
模型记忆力原地起飞,现在1分钟看完一本数万字的小说,现已不在话下。
消息一出,评论区直接炸了,网友们蜂拥而至,“woc连连”:
疯了疯了!
工作进展得太快了,又是为人类忧虑的一天!
本来,这次更新,将模型的上下文窗口token数提到了足足10万,相当于7.5万个单词!
这意味着,大模型“记忆”不好的缺点现在得到补强,咱们可以直接丢给它上百页上万字的材料,比方财报、技能文档乃至是一本书。
而它都能在一分钟之内帮你剖析总结完毕!
要知道,之前市面上简直所有AI聊天机器一次都只能读取有限数量的文本,了解长资料里的上下文联系十分灾难。
而咱们人类自己去处理大篇幅的文本又太慢了,比方光是要读完10万token的材料,就需求大约5个多小时****,更别提还要花更多的时间去了解去消化才能进行总结。
现在,Claude直接一把搞定。
这波,简直是“五雷轰顶”、“反向开卷”GPT-4,由于,刚刚后者也不过才做到3.2万token。
所以,一次性比GPT-4多出3倍的处理量,Claude作用提高究竟如何?
Claude重磅更新:一次记忆10万token
据Anthropic官方介绍,晋级后的Claude-100k版别,对话和使命处理能力双双得到极大提高。
一方面,是“一次性可处理文本量”的添加,直接拓宽了Claude的可从事岗位类型。
之前,大模型最多用来处理个几十页的文档。
现在,Claude现已能速读公司财报年报、技能开发文档、辨认法令文件中的危险、阅览上百页研讨论文、乃至于处理整个代码库中的数据。
最关键的是,它不仅能通读全文总结其间的要点,还能进一步完成具体使命,如写代码、收拾表格等。
例如,快速了解几百页的开发文档,并依据文档开发应用程序demo。
以Claude之前没见过的一项新技能LangChain作为示例:
当交给它一个240页的LangChain API陈述后,要求它快速给出一个LangChain的demo演示:
简直没用多少时间,Claude就快速给出了一个基于LangChain开发的应用程序demo:
又例如,甩给它一个漫长但又不得不听的5小时常识播客:
它不仅能将重点转成文字提取出来,还能快速收拾表格,对观念进行剖析:
难度增大一点,30页的研讨论文也能很好地处理,乃至能精确指定它收拾某一章节的某一阶段:
除此之外,还能帮导演处理剧本选址一类的问题。如给出《沙丘》的电影脚本,问Claude最适合拍照的地址,它很快就能给出几个对应的参阅地址:
最终,官方还给出了一个《了不得的盖茨比》案例,虽然没有demo演示。
他们将这篇喂给Claude后,替换了其间一个人物Mr. Carraway,把他的人物变成“Anthropic里的一位工程师”,再交给Claude阅览,让它找不同。
简直只用22秒钟,Claude就读完这本书,并发现了Mr. Carraway的“不同身份”。
另一方面则是“记忆力”的添加,带来了对论题掌控度的提高、以及聊天能力的提高。
此前大模型经常会呈现“聊着聊着忘了论题”的状况,对话窗口总字数超越几千字后,开端胡说八道。
举个栗子,假如你用很多提示词设置了一个ChatGPT版猫娘,那么它开端聊天后,或许几个小时就忘记了自己和你说过的话,开端表现出一些“越轨”的痕迹(手动狗头)
但现在,拥有一次10万+个token记忆力的Claude,则不太或许呈现这种状况,反而能牢牢记住和你聊过的论题,连续交谈上好几天。
那么,现在咱们能经过什么方法用上最新版Claude呢?
API和网页版均已上线
Anthropic先是宣告推出了Claude-100k的API版别,之后又火速上线了网页端。
△Anthropic工程师
所以无论你是用网页端仍是用API,现在都现已可以直接体验这个拥有“超长记忆力”的Claude版别。
很快啊,现已有网友迫不及待玩上了。
像OthersideAI的CEO Matt Shumer,就试用了一下网页端的Claude-100k总结技能陈述的作用。
他先测了波Claude-9k的作用,发现它面对长达上百页的GPT-4技能陈述,仍是会呈现“幻觉”;随后测试新版Claude-100k,发现它给出了有理有据的估计:
GPT-4的参数量级大约在5000亿左右!
这是它的估测进程:
不知道这波OpenAI的奥特曼会不会出来驳斥谣言(手动狗头)。
还有一位Assembly AI的老哥,测试了一下Claude-100k的API版别。
在视频演示中,他用Claude-100k总结了一下Lex Friedman的5小时长播客(内容与John Carmack有关),作用看起来也十分不错:
但无论是网页版仍是API,都还不是咱们能免注册直接试玩的版别。
之前咱们说的不必注册、不必请求、不必“骚操作”就能玩、体验也很不错的是slack端,它的添加方法咱们在之前的文章中介绍过,十分简单。
遗憾的是,现在它仍是Claude-9k“体验版”。
所以,总结一下便是,这个Claude-100k的版别:
- 可以用API的方法体验,不过不是免费的;
- 网页版也行,但需求你有试用资格,没有就去请求,等一等;
- Slack端还不可,只是个体验版。
反向开卷GPT-4,网友:卷对了方向
昨日,谷歌刚刚在I/O大会上宣告了数项严重更新,包括:
- 重构谷歌查找、敞开AI对话
- 发布大模型PaLM 2
- 全面敞开Bard,不必排队直接玩
……
这被视作针对微柔和OpenAI的一系列反击。
现在,来自Anthropic的Claude紧随其后,发布如此严重更新,直接反向开卷GPT-4——
有网友评价:
Claude卷对了方向。
确实,现在大部分言语模型遍及都只能处理2-8k的token量,我们都在苦苦追寻提高模型记忆力的方法。
比方上个月那篇可将Transformer token上限扩展到100万乃至200万的论文就引起了十分大的关注,不过网友测试作用似乎不太理想。
现在,Claude直接“业界第一人”宣告做到了100k,并拿出来给我们用,很难不让人称赞。
除此之外,还有网友“站得更高”,称:
资本主义之间的竞赛果然很美妙。
言外之意,卷得好啊卷得妙。没有巨头和各垂直企业之间的你争我抢,咱们哪能在短短两天之间又目睹了如此多和严重的进展呢?
诶,不过话说回来,鉴于Anthropic是由最初不满意OpenAI与微软走得太近的几位前职工创建,而谷歌也斥资3亿美元投资了这家公司。
斗胆猜测:
这次两人前后脚的“一唱一和”,是不是提前商量好的?
参阅链接:
[1]techcrunch.com/2023/05/11/…
[2]twitter.com/AnthropicAI…
[3]www.anthropic.com/index/100k-…
[4]twitter.com/mattshumer_…
[5]www.youtube.com/watch?v=2kF…
—完—