新智元报道

修改:Aeneas 好困

【新智元导读】 这个全新发布的Lamini引擎,大大拉低了模型练习的门槛,开发者人手一个ChatGPT的梦想成真了。

快速定制模型的LLM引擎Lamini来了,开发者狂喜!ChatGPT虽好,但一直有门槛。一般,只要拥有AI博士学位的大型机器学习团队,才干这样练习一个模型。为了把这个门槛打下来, 团队构建了Lamini引擎,从此,每个开发者都可以拥有从GPT-3练习ChatGPT的超能力!划重点:可以商用!可以商用!可以商用!

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

项目地址:github.com/lamini-ai/l… 的开发团队表明,你需求的仅仅几行代码,就可以用保管数据生成器俩练习自己的LLM,包含权重和其他一切的内容。此外,你也可以运用开源的LLM,用Lamini库对生成的数据进行微调。以及拜访完整的LLM练习模块,运用从LoRa等速度优化,到虚拟私有云 (VPC) 布置等企业功用。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎
对此,英伟达科学家Jim Fan表明, LLaMa+自定义数据正在成为新的范式,而Lamini的推出也带了一种全新的形式——FaaS,微调即服务。
几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

MLOps的未来是「LMOps」。哪里有标准化,哪里就有机会。

OpenAI科学家,前特斯拉人工智能总监Andrej Karpathy也表明,LLM定制化的生态正在愈发火爆。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

训LLM就像prompt-tuning相同简略

写一个prompt如此容易,但想要从根底模型练习出一个大语言模型,却是如此困难。由于需求花费大量时刻,来找出微调模型失败的原因,所以对数据集微调的迭代周期都是以月为单位的。与之相反,微调prompt的迭代,只需求几秒钟,并且在几个小时内,功用都能保持稳定。这个过程只需求把有限数量的数据整合到prompt中就可以了,并不需求动辄几TB的数据。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎
ChatGPT的诞生十分艰难,OpenAI的团队花了几个月的时刻,在根底的GPT-3模型上微调,并进行RLHF。这个门槛极高,只要大型的ML团队才干完成这种练习。有500强企业的技能负责人这样抱怨过:「咱们团队的10名机器学习工程师用了OpenAI的微调API,成果咱们的模型反而变得更差了,怎么办啊。」「我真的不知道该怎么充分利用数据,我现已用尽了一切从在线教程中能学到的prompt魔法了。」这,便是研究者构建Lamini的原因:让每个开发者可以直接从GPT-3练习ChatGPT。

恣意LLM,秒变ChatGPT!

Lamini是一个LLM引擎,可以让不仅仅是机器学习专家的任何开发人员,都能在大型数据集中,把高功用的LLM练习得像ChatGPT相同好。这个过程,只需求Laimini库的几行代码即可。值得注意的是,这个库中的优化(optimization)远远超出了现在开发者可以运用的规模,从更具挑战性的优化(如RLHF)到更简略的优化(如减少幻觉)。比方,你想从不同的视点生成一个广告文案。首先,从llama模块导入LLM引擎:

from llama import LLMllm = LLM(name="marketing")

接下来,需求定义输入和输出类型。注意,这里一定要包含上下文(Context),由于可以有助于LLM在自然语言中进行了解。

from llama import Type, Context
class AdAspects(Type):  tone: str = Context("tone of the marketing copy")  product_features: list = Context("product features to promote")  audience: str = Context("target audience for the message")  subject: str = Context("subject or topic of the message")  goal: str = Context("goal of this marketing campaign and message")
class AdCopy(Type):  title: str = Context("google ad title tag")  description: str = Context("google ad description")  keywords: list = Context("keywords for the search engine")

然后就可以开始提问了:

语气:斗胆,但不高傲特色:亚洲酱料和香料、家常调料和套餐包,可以轻松在家烹饪。

aspects = AdAspects(    tone="bold and bright, but not arrogant",    product_features=[        'asian sauces and aromatics',        'home-cooked seasonings and meal packs that can be easily cooked at home'    ],    audience="suburban families",    subject="delicious asian meals without going to a restaurant",    goal="get suburban moms and dads to try buy their first omsom pack or free tasting kit")ad_copy = llm(input=aspects, output_type=AdCopy)print(f"Ad copy: {ad_copy}")

模型输出:

尝试 Omsom 的甘旨亚洲酱料、香料、家常调料和套餐包。轻松为家人在家做出甘旨佳肴。

> title='Delicious Asian Meals Without Going to a Restaurant | Omsom'  description="Try Omsom's delicious Asian sauces, aromatics, and home-cooked seasonings and meal packs. Easily cook delicious meals at home for your family."  keywords=[    'Asian sauces',    'Aromatics',    'Home-cooked seasonings',    'Meal packs',    'Delicious meals',    'Suburban families',    'Omsom'    ]

怎么创立自己的「ChatGPT」

根底模型能了解一般的英语,但假如需求它们学习一些垂直语言和规矩,prompt微调并不满足,许多时候咱们都需求构建自己的LLM。利用用下面这个过程,就能获得像ChatGPT相同遵从指令的LLM。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

  1. 尝试prompt-tuning ChatGPT或其他模型

可以运用Lamini库的API,在不同模型之间快速进行prompt-tuning,只需一行代码,即可在OpenAI和开源模型之间切换。Lamini库现已优化了正确的prompt,这样开发者就可以运用不同的模型,不必忧虑怎么为每个模型设置prompt的格式。

  1. 构建一个包含输入-输出对的大型数据集

这些数据聚会向模型展示,它应该怎么呼应输入,无论是遵从英文阐明,还是以JSON呼应。研究者刚刚发布了一个只要几行代码的repo,运用Lamini库,仅从100个数据点中,就能生成50k数据点。而且由于运用Lamini库来启动Lamini引擎,所以这个过程根本不需求用到GPU。在repo中,现已包含一个开源的70+k数据集。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

项目地址:github.com/lamini-ai/l…

  1. 在大型数据集上微调根底模型

除了数据生成器,研究者还发布了一个LLM,它运用Lamini对生成的数据进行了微调。以编程方式履行此操作的功用也会很快发布。也可以把OpenAI的微调API作为起步。

  1. 在微调模型上进行RLHF

运用Lamini,就不再需求大型ML和人工符号团队来运转RLHF。

  1. 布置到云端

只需点击产品或功用中的API端点即可。

专为LLM打造的数据生成器

简略来说,依照以下几个过程,就可以练习自己的大语言模型了。

  • 用于优化prompt微谐和类型化输出(typed outputs )的 Lamini库。
  • 用于微谐和RLHF的高级Lamini库,只需几行代码。
  • 史上首个保管数据生成器,用于创立数据,来练习遵从指令的LLM。注意,已获得商业运用答应!
  • 开源的指令跟从(instruction-following)LLM,运用上述工具,只需几行代码即可完成。

数据生成器作业原理

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

Lamini数据生成器是一个LLM管线,它选用原始的100多条指令的小集合,与预期的呼应配对,生成50k+新的配对,灵感来自Stanford的Alpaca 。这个生成管线运用Lamini库来定义和调用 LLM,以生成不同但类似的指令和呼应对。

依据这些数据练习后,你的LLM会遵从这些指示,因此得到改进。对于运用开源LLM的生成管线,研究者供给了一个很好的默认值,Lamini Open和Lamini Instruct。

跟着每天新的LLM发布,研究者都会将默认值更新为功用最佳的模型。在目前的版别中,Lamini Open用的是EleutherAI的Pythia,Lamini Instruct用的是Databricks的Dolly。

Lamini Open会生成更多指令,而Lamini Instruct会生成这些指令的成对呼应。最终生成的数据集可供免费商业运用,现已经过CC-BY答应。仅用一行代码,就可以将Lamini库的默认值换成其他开源或OpenAI模型。研究者发现,OpenAI模型的平均体现更好,但它们的答应约束了将生成数据用于练习类ChatGPT模型的商用。

对生成数据进行微调

在这个过程中,生成的数据会质量不一。在微调之前,下一步便是将生成的数据过滤为高质量数据。然后,Lamini会经过在这个过滤后生成的数据集上练习根底模型,来创立自定义LLM。研究者现已发布了一个开源指令跟从LLM(CC-BY 答应),可以用Lamini来练习Pythia根底模型,生成的37k指令是从70k中筛选出来的。明显,Lamini库的出现,让迭代周期变得更快、更有效,有更多的人可以构建模型,而不仅仅是试验各种prompt。

团队介绍

Sharon Zhou是Lamini的联合创始人兼首席履行官。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

个人主页:sharonzhou.me/

她在哈佛大学获得了计算机科学与古典文学联合学士学位,并以最高荣誉获得了硕士学位。随后,她在斯坦福大学获得了计算机科学博士学位,师从吴恩达。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

2022年,29岁的Zhou当选《麻省理工科技谈论》「35岁以下科技立异35人」。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

Gregory Diamos是MLPerf的联合创始人。他曾是百度硅谷AI实验室的创始成员,对DeepSpeech和DeepVoice体系有贡献。

几行代码,GPT-3变ChatGPT!吴恩达高徒、华人CEO震撼发布Lamini引擎

参考资料:lamini.ai/blog/introd…