swift微调牧歌数据电商多模态大语言模型

大规模中文多模态评测基准MUGE_数据集-阿里云天池多模态理解和生成评估挑战榜(MUGE)是由阿里巴巴达摩院智能计算实验室发起,由阿里云天池平台承办,并由浙江大学、清华大学等单位共同协办。 Micon-default.png?t=N7T8https://tianchi.aliyun.com/dataset/107332微调的是牧歌数据集,结果都不好,记录一下。微调了qwenvl和llava,都是一样的类似结果,需要对数据做进一步的分析。通常在大语言模型中,存在PT和SFT中,一般来讲SFT的数据更重要的是数据质量,数据量多少并不是决定性因素,但是在VLM中的特征对齐和指令微调中,从llava中看,60w特征对齐,15w指令精调,15w精调是llava起初版本的,llava1.5就是665k的精调了。也就是说你也可以当成PT和SFT两个阶段看,但是两者是完全不同的。

1.数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值