
「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍
「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!
开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!
一期长达5小时的播客,究竟谁在听?MIT人工智能研究员、知名播客主持人及科技传播者Lex Fridman的对谈节目《Lex Fridman Podcast》近期推出了有关DeepSeek的一期内容: 截至3月7日,这一期节目在YouTube上获得了178万播放量和2.5万like(点赞),对DeepSeek所代表的AI大模型革新的解读,获得了大量科技界、商界从业者的关注。
LeCun最新访谈,对DeepSeek一顿猛夸。 他表示,DeepSeek是一项很出色的成果,它的开源不只是成果创造者受益,全世界都能从中受益。
北京时间3月10日,据《华尔街日报》报道,富士康母公司鸿海已研发出中国台湾地区首个具备先进推理能力的大模型,性能上落后于DeepSeek的部分大模型。鸿海周一表示,已自主研发了具备推理能力的人工智能(AI)大语言模型FoxBrain,并在四周内完成训练。FoxBrain最初为公司内部使用而设计,具备数据分析、数学运算、推理以及代码生成的能力。
没能延续第一款AI产品闷声发大财的路线
近年来,大语言模型(LLM) 的快速发展正推动人工智能迈向新的高度。像 DeepSeek-R1 这样的模型因其强大的理解和生成能力,已经在 对话生成、代码编写、知识问答 等任务中展现出了卓越的表现。
最近AI一直是很火的话题,Deepseek也是一夜爆火,但是实际使用下来发现Deepseek好像和其他大模型一样,并没有什么厉害之处,而且官网经常服务器繁忙。
本报告分析了过去16小时内在Twitter(X)平台上出现的关于Manus AI的国外用户反馈。通过系统收集和分析多位用户的评论,我们发现Manus AI被广泛视为AI代理领域的重大突破,被多位用户比喻为"AI代理的DeepSeek时刻"。
Manus背后公司名为“蝴蝶效应”,真的带火了整个智能体赛道——
在面对复杂的推理任务时,SFT往往让大模型显得力不从心。最近,CMU等机构的华人团队提出了「批判性微调」(CFT)方法,仅在 50K 样本上训练,就在大多数基准测试中优于使用超过200万个样本的强化学习方法。