专栏目录
耗时一下午,我完成了 GPT Terminal,真实具有了专归于我的 GPT 终端!
怎样用 GPT 在 5 分钟内 ”调教“ 出一个专归于你的 ”小黑子“?
怎样丝滑完成 GPT 打字机流式回复?Server-Sent Events!
我是怎样让我的 GPT Terminal “长记忆” 的?仍是老配方!
一个合格的类 GPT 使用需求具备什么?一文带你打通 GPT 产品功用!
开发一个 ChatGPT 真的只是当 “接口侠” 吗?GPT Terminal 细节分享!
怎样借助于 OpenAI 以指令的方法在 GPT 终端上画一只 “坤”?
项目地址:github.com/ltyzzzxxx/g…
欢迎咱们Star、提出PR,一起快乐地用 GPT Terminal 玩耍吧~
前言
距 ChatGPT
面世现已过去半年多啦,咱们必定有些审美疲劳了,不满足于 ChatGPT
提供的对话服务,而是想真实练习出自己的言语模型。
而作为非 LLM
专业研究人员,练习一个言语模型的难度是很大的。
今日我要给咱们介绍的,是一个可视化模型练习渠道,这意味着你不需求任何专业知识,只需求会简单的操作,即可快速建立出依据自己内容的言语模型!
听到这儿,咱们是不是有些激动。废话少说,咱们快速进入正题吧!
Fine-tuning 介绍
在介绍这个可视化模型练习渠道之前,我需求给咱们弥补点儿 Fine-tuning
的基础知识。
Fine-tuning
意思是 “微调”,即在预练习模型的基础上,进行进一步的微调,然后使得模型到达更好的作用,输出更理想的结果。在这个过程中,通常会运用更小的学习率,然后避免呈现 过拟合
的状况。
咱们今日要做的工作,其实便是在依据 GPT-3.5
或 GPT-4
这样强壮的模型上,做 Fine-tuning
,练习微调出咱们想要的言语模型。
Dify 介绍
Dify 是今日文章的主角,咱们正是依托于该渠道强壮的才能,建立出归于咱们的言语模型!
Dify 是一个可视化、可运营、可改善的 LLM
练习渠道,它提供了强壮的 LLMOps
才能。此外,它还提供了建立 Web App
的才能。这些意味着你能够用它快速开发一个专归于你的 ChatGPT
使用,你能够依据此进行练习、微调,直到它变成你喜欢的模样!
LLMOps(Large Language Model Operations)是一种依据机器学习模型的运维(Operations)实践,是一个涵盖了大型言语模型(如GPT系列)开发、布置、保护和优化 的一整套实践和流程。
LLMOps 的方针是确保高效、可扩展和安全地运用这些强壮的 AI 模型来构建和运行实践使用程序。它涉及到模型练习、布置、监控、更新、安全性和合规性等方面。
Dify 快速开端
今日,咱们就借助于 Dify 强壮的才能,动手练习一个模型!
咱们的意图便是想让练习出来的言语模型所输出的内容,均符合咱们的预期,而且它不会胡编乱造,捏造事实。
注册 Dify & 创立使用
进入 Dify 官方页面,注册并填写 API Key 后,点击创立使用。
接着,咱们为即将诞生的模型,起一个炫酷的名字 真IKun
,给它设置一个贴切的头像,并挑选使用类型为 对话型使用
。
- 之前咱们做的
IKun
上下文信息太少,数据量不够,导致其只能回答有限的问题,远远达不到真
的程度。
点击创立后,咱们便能够得到如下界面:
假如咱们要求不高的话,其完成在就现已得到了一个一般的 ChatGPT
使用啦,咱们能够与它进行根本的 GPT
对话。但咱们又怎样满足于此呢?速速进入下一步 – Fine-tuning
!
提示词编排
咱们进入界面后,能够看到左边侧边栏有 提示词编排
按钮,咱们在这儿能够输入对话前的提示词,然后必定程度上调整模型的输出内容。如下图所示:
在这儿,我将 IKun
的根本素质作为提示词传输给言语模型,并顺次点击 承认
与 发布
按钮。接下来,让咱们测验一下,它能否到达咱们预期的作用!
它确实理解了咱们输入给它的上下文,而且能够依据问题,输出相对理想的内容。但假如 Dify 真的只是这样,那么它并没有多么强壮,由于在 OpenAI 提供的接口中,咱们通过设置上下文参数,也能够完成这样的作用(详情请参阅 GPT Terminal 专栏)。接下来,让咱们看看 Dify
真实强壮的地方。
构建并填充数据集
咱们点击导航栏的 数据集
按钮,并点击 创立数据集
按钮,开端创立。
咱们能够看到,需求通过导入已有的文本内容,创立咱们自己的数据集。
这些数据其实仍是比较容易获取啦,咱们能够准备两个文件:关于哥的个人资料(从 某基百科
或 某度百科
中获取)、哥的梗(从 某乎
、某音
中获取)
接着,咱们进入下一步 – 文本分段与清洗
。
保存默认选项,直接点击 保存并处理
进入下一步即可。
功德圆满!接下来咱们去填充数据集!
返回到之前构建使用的界面,点击上下文的 添加
按钮,将咱们的数据集导入,并点击 发布
按钮,生成新的模型。
作用展示
最终生成的 IKun
似乎能够回答一些问题,可是感觉没有那么活灵活现,没有到达资深 小黑子
的程度。可能是咱们的数据集仍是太少,也可能是咱们的 梗文明
太深奥啦,言语模型难以理解。不过当咱们 Feed 的数据量越来越大、越来越精确时,信任它必定能够到达咱们想要的作用!
总结
今日通过借助于 Dify
渠道,咱们体会了一把自己练习模型是什么感觉!虽然它还没有到达真实能够理解言语文明的程度,可是随着 LLM
的开展,这一功用必定能够在不远的将来完成。
咱们有兴趣的能够自己去玩一玩,制造一个自己的言语模型!