融资4000万美金的LiquidAI首次发布模型。
LFMs 种从第一原则构建的非Transformer模型,包括1B、3B 和 40B三个版本。
两个小模型在各个维度的测试分数都碾压其他同规模模型。
在内存占用和推理效率上表现非常出色:
即使是40B的MoE模型在相同硬件下推理速度也非常快。
在处理长内容输入的极限条件下,比现有Transformer模型的内存占用低非常多。
这个1B和3B小模型看起来甚至比苹果的更适合在端侧部署。
模型详细介绍:Liquid Foundation Models: Our First Series of Generative AI Models
试用模型:https://labs.perplexity.ai
https://playground.liquid.ai/