24830 三花 AI 日报: 美国政府宣布 OpenAI 新模型发布前须经过严格审核;阿里 Qwen2-VL;第一个支持一亿上下文的模型

三花 AI 一觉醒来发生了什么?欢迎阅读:point_down:

:eyes: 阿里 Qwen2-VL: 更清晰地看世界

:balance_scale: 美国政府宣布 OpenAI 新模型发布前须经过严格审核

:sparkles: LTM-2-Mini:第一个支持一亿上下文的模型


阿里 Qwen2-VL: 更清晰地看世界

阿里通义昨天发布了新视觉语言模型 Qwen2-Vl,同样基于 Qwen2 打造,

其中官方主要用于演示和基准测试对比的 72B 模型只提供 API,能力较弱的 7B 和 2B 模型基于 Apache 2.0 协议开源,支持商用。

API 的具体价格还没出,不过你可以在这里试用闭源的 72B 模型:Qwen/Qwen2-VL,这里可以试用开源的 2B 模型,差距还是不小:MaziyarPanahi/Qwen2-VL-2B

更多的介绍可以看官方博客 《Qwen2-VL: 更清晰地看世界》

美国政府宣布 OpenAI 新模型发布前须经过严格审核

今天早上,美国政府宣布 OpenAI 与 Anthropic 达成了一项合作协议,双方将在人工智能安全研究、测试和评估领域展开合作。

根据协议,美国国家人工智能安全研究所(USAISI)将有权在 OpenAI 和 Anthropic 发布新模型前提前访问并进行技术安全与伦理使用的监管审查。

今天早些时候,OpenAI CEO 奥特曼发推表示“在国家层面进行审查很重要”,评论区纷纷嘲讽。

参考来源:

LTM-2-Mini:第一个支持一亿上下文的模型

Magic 昨晚发布了 LTM-2-Mini,第一个具有 1 亿 Token 上下文的模型,它可以在推理过程中处理相当于 1000 万行代码或 750 本小说的内容。


复盘一下这周,总的来说没啥大事件,今天的内容也不多,希望对你有用。

21 个赞

每日必读,感谢分享 :xhs_033:

上亿的token,这么牛

最近黑猴闹心,还好“总的来说没啥大事件”

哈哈,MAGA

来每日看报了

终于找到日报了 新版分类后不好找到你了 :smiling_face_with_tear:

不知道一亿上下文的模型大海捞针该找什么素材了:rofl:

1亿token有啥实际应用价值吗?

一亿Token?能把阿里开源的代码丢进去分析么?