最近咱们刚刚发布了新的开源模型 Zephry-7B,这个模型的诞生离不开全球三大洲开源社区的协作 ❤️。
咱们的 CSO Thomas 录了一个视频介绍了它的起源故事: 点击这里查看视频
✨ 就在几个月前,巴黎的一个新团队发布了他们首个模型: Mistral 7B,这个模型体积小巧但功能微弱,在基准测验中的体现超过了一切同类模型。并且这是个开源模型,这意味着我们都可以在此基础上进行开发。
✨ 开发者 Lewis 在瑞士伯尔尼,Ed 在法国南部里昂,他们俩都是 Hugging Face H4 团队的一员。在 Hugging Face 举办的一次小聚中,他们边喝咖啡边讨论用斯坦福大学新发表的 DPO 办法对模型进行微调的可能性。所以我们决定用他们现已构建好的代码库来测验一下
✨接下来的一天,他们在 HF hub 上找到了一些公开的数据集,主要是由清华的 OpenBMB 团队新近开源的两个大型、高质量的微调数据集: UltraFeedback 和 UltraChat
✨ 通过几轮训练实验,他们的主意得到了证实: 这个新模型十分强大,在伯克利和斯坦福的基准测验中是他们见过的最强模型。Clmentine 是 Hugging Face Open LLM Leaderboard 的领头人,她对模型的深入分析确认了其杰出功能。所以 H4 团队中另一位成员 Sasha Rush 教授迅速起草了一篇研讨报告,将一切细节共享给整个社区
✨ 几天后,这个名为 Zephyr 的模型、研讨论文以及一切细节都向世界公开了。不久之后,全球各地的公司开端使用这一模型。LlamaIndex,一个知名的数据结构和社区,共享了这个模型在实践用例基准测验中超乎预期的体现。与此同时,研讨者和实践者们在 Hugging Face hub 上讨论着这篇论文和相关作业。
✨ 很难相信,这一切的完成仅仅用了几周时间 !这一切都得益于世界各地 (欧洲、加利福尼亚、中国) 对知识、模型、研讨和数据集的敞开,以及开源社区之间的相互协作
✨ 这样的故事在开源社区举目皆是,也正是这些人和事让开源社区始终保持不断创新的原动力
✨ 齐心协力,咱们可以一起创造出惊人的成果 ❤️