🚀 快来试试 来自清华博士王慎执版Llama3 模型,表现不错!(已下线)

很速度,使用很丝滑。而且看训练对话的一些反馈,这位学霸专业且谦虚。 :+1: :+1: :+1: :+1: :+1: :+1:

2 个赞

站长这个称呼怎么有种谍战片的既视感,哈哈。大佬们都很强,很有格局。 :+1: :+1: :+1:

1 个赞

感谢分享

1 个赞

ollama把模型同步加载到显存,开放不同端口代表不同模型对吧,那这消耗显存有点大吧 :thinking:

1 个赞

感谢大佬 我就使用在新版体验体验 哈哈哈 站在佬的肩膀上

1 个赞

专业

1 个赞

是,8B模型还好一点,不量化也就是16G,70B量化的也还有40G,比较难搞,现在感觉amd那种计算卡的价值在部署模型上很有优势

1 个赞

llama性能怎么样?比gpt4到底如何?

1 个赞

这个更适合中文,好啊

1 个赞

膜拜

1 个赞

阔以阔以,感谢分享

1 个赞

:call_me_hand: :call_me_hand: :call_me_hand:

1 个赞

打不开佬

1 个赞

cf tunnel 挂了,我看看

@OICQ
@xudashan 好了

1 个赞


啊这。。。

1 个赞

下载一直中断怎么办

1 个赞

刚下载玩,问一下,同样的问题,回答和楼主不一样,是正常的不

1 个赞

感谢分享

1 个赞


疯了。。。

1 个赞

应该是用的人太多,不稳定。早上的时候还很丝滑。

1 个赞