Datawhale AI冬令营

   日期:2024-12-27    作者:ett9u 移动:http://3jjewl.riyuangf.com/mobile/quote/63830.html

重生之不写代码得到定制小助手

第一次参加DataWhale的开源AI课程,迫不及待分享自己的第一篇note,如遇错误/不完善的点欢迎大家批评指正

Datawhale AI冬令营


步入正题,今天我们的任务是,定制基于《甄嬛传》剧本中的甄嬛台词,打造一个模仿甄嬛语气、风格的专属聊天模型—— Chat-嬛嬛。

STEP 1

进入讯飞形成MaaS平台注册账号

STEP 2

下载微调数据集

地址 : https://github.com/datawhalechina/self-llm/blob/master/dataset/huanhuan.json

Q:为什么会用到数据集

A:我们所谓的微调模型实际上是因为原模型在我们特定任务上变现的不够好,所以我们需要给模型找一份学习资料,通过学习这份学习资料,模型能够更好的学习到其中的知识,这里的学习资料就是训练数据,上文提到的微调数据集。由此我们也可以知道,模型最后能够学的好还是不好,一方面与模型本身有关外,还与数据质量有关。就好比让人做一些可口的饭菜,不仅与这个人的厨艺有关(相当于模型本身,还与菜品本身的质量有关(相当于数据质量,毕竟从肥沃土地长出的蔬菜和从贫瘠土地长出的蔬菜差别还是很大的。

STEP 3

按照教程中的步骤走即可

1. 点击【创建模型】

2. 配置基础信息, 注意不要选错模型

3. 点击【创建数据集】

4. 配置数据集信息

5. 导入嬛嬛数据集

6. 提交任务

7.开始炼丹

此部分有一些常见的问题在此处解答

1.使用的是我们自己的数据集,我们已经将数据集下载到本地了,但是上传的时候不可以上传

:我们下载的数据集是压缩包,而上传数据集的要求是json、jsonl、csv格式,只需将压缩包解压后将数据集上传即可

2.教程中使用的是Qwen2.5-7B-instruct,可不可以使用其他的模型

:当然可以,讯飞星辰MaaS平台提供了除Qwen外,还有自家的Spark系列以及Llama3、上海AILab的InternLM模型,大家可以自行选择模型进行微调

有关数据集Alpaca格式将会在下次文章中仔细讲解,各位可以稍稍期待一下

STEP 4

在模型训练过程中我们还需要做一件事,那就是为自己的模型创建一个应用,此应用非我们在手机上使用的APP,而是提供一个模型推理对话的容器,用于将我们微调的模型放在这个容器中,每当我们想要体验对话时就可以运行这个容器来跟模型对话了

跟着教程走即可

进入控制台-讯飞开放平台创建自己的应用,没有实名认证的话只能创建一个自己的应用,实名一下可以将上限提高到100个,创建第二个的时候要注意

STEP 5

LORA微调是一种高效的微调方式,能够在计算资源不充足的情况下微调模型实现一些下游任务,也是目前最通用、效果最好的微调方法之一。具体内容我会在后续内容中单独出一期来讲解。

我们使用LORA微调模型的时长大概在10-20分钟,具体会因模型大小和超参选择而异。

当模型训练完成后页面会变成这样

然后我们需要将模型发布为服务,放在我们在STEP 4创建的容器应用

等一小会,有时候人多的时候会慢一点,大家耐心等待即可

随后我们会发现页面上多了一个体验,犹豫啥,点他就完事了

进入到像下面的页面中,选择服务就是让我们选择模型,点开后有两个选择,预置服务中放的就是微调前的模型,我的服务中放是我们发布成功的微调后的模型

选择我们用来微调的模型和微调后的模型,这样我们可以横向比对微调前后模型的差异,直观的感受出微调效果,当然了,你也可以选择两个不同的预置模型,比对一下两个模型对同一个问题的输出回答,感受一下模型评测的魅力

然后就可以开始对话了

至此,你已经完成了第一个专属AI,有没有感受到其中的神奇与魅力呢

初来乍到,希望能给大家带来一点点帮助留下你的三连哈哈哈哈,走错平台了,下期见


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号