
Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒!
Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒!全球最快的开源大模型来了——速度达到了每秒2000个tokens! 虽然只有320亿参数(32B),吞吐量却是超过典型GPU部署的10倍以上的那种。它就是由阿联酋的穆罕默德·本·扎耶德人工智能大学(MBZUAI)和初创公司G42 AI合作推出的K2 Think。
全球最快的开源大模型来了——速度达到了每秒2000个tokens! 虽然只有320亿参数(32B),吞吐量却是超过典型GPU部署的10倍以上的那种。它就是由阿联酋的穆罕默德·本·扎耶德人工智能大学(MBZUAI)和初创公司G42 AI合作推出的K2 Think。
AI技能真的很值钱,甚至比你专门读个硕士能带来的涨薪幅度还要高!若干市场调研和企业招聘说明中,这个结论始终在被反复验证。
9月3日下午,温州举行全市人工智能创新发展大会,会上正式挂牌成立温州市人工智能局,温州在加快建设人工智能创新发展先行市进程中迈进重要一步。
一般人准确率89.1%,AI最好只有13.3%。在新视觉基准ClockBench上,读模拟时钟这道「小学题」,把11个大模型难住了。为什么AI还是读不准表?是测试有问题还是AI真不行?
Meta超级智能实验室的首篇论文,来了—— 提出了一个名为REFRAG的高效解码框架,重新定义了RAG(检索增强生成),最高可将首字生成延迟(TTFT)加速30倍。
马斯克xAI被曝正在自研推理芯片!
在大模型的竞赛中,参数规模往往被视为性能的决定性因素。但近期,Liquid AI 的研究团队提出了一个不同寻常的案例:一个仅有 3.5 亿参数的模型,经过微调后,竟能在中短上下文的实时日语英语翻译任务上,与 GPT-4o 竞争。
OpenAI最近向股东们做了汇报,豪言将在未来五年烧1150亿美元,主要用于将自建的数据中心。与此同时,OpenAI也预测2030年营收将达到2000亿美元。OpenAI的信心因何如此充足?
过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。
继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案。继上周封禁中国公司 API 访问后,这家 AI 公司表示,该法案为监管前沿 AI 公司构建的强大 AI 系统提供了坚实基础,通过透明度而非技术微观管理来实现监管。