
诺奖得主DeepMind CEO放话:DeepSeek是中国最好AI模型,但没任何科学进步
诺奖得主DeepMind CEO放话:DeepSeek是中国最好AI模型,但没任何科学进步xAI、谷歌DeepMind和Anthropic的CEO们纷纷对DeepSeek的技术创新性提出质疑,认为其并未带来实质性的科学突破。AI大佬纷纷泼冷水,到底是技术讨论还是各怀目的?
xAI、谷歌DeepMind和Anthropic的CEO们纷纷对DeepSeek的技术创新性提出质疑,认为其并未带来实质性的科学突破。AI大佬纷纷泼冷水,到底是技术讨论还是各怀目的?
DreamTech,由牛津大学、南京大学等顶尖高校研究者组成的AI创业团队,在春节期间公布了他们在3D生成方向上的新工作成果——Neural4D 2.0(初版名为Direct3D),提出了创新性的3D Assembly Generation算法思路及更高效的模型架构
就在刚刚,AIME 2025 I数学竞赛的大模型参赛结果出炉,o3-mini取得78%的最好成绩,DeepSeek R1拿到了65%,取得第四名。然而一位教授却发现,某些1.5B小模型竟也能拿到50%,莫非真的存在数据集污染?
图像生成模型,也用上思维链(CoT)了!此外,作者还提出了两种专门针对该任务的新型奖励模型——潜力评估奖励模型。(Potential Assessment Reward Model,PARM)及其增强版本PARM++。
当ChatGPT用对话颠覆人机交互时,车企们早已嗅到了AI大模型的潜力——从语音助手到自动驾驶,从情感陪伴到场景决策,智能座舱的体验边界正被重新定义。
除了o1/o3,OpenAI另一个尚未公开的内部推理模型曝光了。爆料者正是CEO奥特曼本人。据他透露,与全球顶尖程序员相比,当前这一内部模型的编程能力已达Top50,甚至今年年底将排名第一。
DeepSeek 的最新模型 DeepSeek-V3 和 DeepSeek-R1 都属于 MoE(混合专家)架构,并在开源世界产生了较大的影响力。特别是 2025 年 1 月开源的 DeepSeek-R1,模型性能可挑战 OpenAI 闭源的 o1 模型。
DeepSeek火的一塌糊涂,其访问量暴涨614%,已成全球第二大爆火应用。马斯克剧透,xAI将发布比R1更好的模型。
黑科技来了!开源LLM微调神器Unsloth近期更新,将GRPO训练的内存使用减少了80%!只需7GB VRAM,本地就能体验AI「啊哈时刻」。
DeepSeek让国内一众大模型同行度过了一个“痛苦”的春节。年前,DeepSeek掀起AI海啸,有某大厂大模型业者就捶胸顿足:“产品超出了我的想象,比咱家的各方面都好,真想跳槽到DeepSeek。”还有很多人反思,为啥咱自家就没做出DeepSeek。也有业者不服气,认为“它的火只是一种情绪的泡沫。”