一句话通过ollama调整llama3的中文回复

我需求不高,不同server的API 我喜欢用chatX来同步使用。 本地模型这种我只跑自己本机也没穿出去 那就本机chabox接入。 我比较喜欢chatbox那个↓交互,不喜欢就点↓ 让他再来一次。

直接用千问得了

本来这两个微调模型在微调方法和数据集都不一样。效果自然有区别。

Chinese-LLaMA-Alpaca-3是用lora微调,数据集很大

Llama3-8B-Chinese-Chat是全参数微调,数据集比另外一个小得多

Llama3-8B-Chinese-Chat 我直接pass 了,不太正常。
我现在先用Chinese-LLaMA-Alpaca-3 这个用段时间看看。

1 个赞