
估值超150亿的智元机器人,正加速投资
估值超150亿的智元机器人,正加速投资将资源和资金用在产业链投资上,“物尽其用、财尽其力”。
将资源和资金用在产业链投资上,“物尽其用、财尽其力”。
一切为了「多终端一致体验」和「用户数据闭环」。
谁说世界不需要文科生?
就在刚刚,智谱一口气上线并开源了三大类最新的GLM模型:沉思模型GLM-Z1-Rumination 推理模型GLM-Z1-Air 基座模型GLM-4-Air-0414
当下技术的水平还不足以支撑AI直接生成游戏,一步一个脚印才是正道。
虽然扩散模型在视频生成领域展现出了卓越的性能,但是视频扩散模型通常需要大量的推理步骤对高斯噪声进行去噪才能生成一个视频。这个过程既耗时又耗计算资源。例如,HunyuanVideo [1] 需要 3234 秒才能在单张 A100 上生成 5 秒、720×1280、24fps 的视频。
单张图直接就能生成可编辑的CAD工程文件!
重视前沿技术敏感度,编程能力成硬通货
开发Agent的工程师们都曾面临同一个棘手问题:当任务步骤增多,你的Agent就像患上"数字健忘症",忘记之前做过什么,无法处理用户的修改请求,甚至在多轮对话中迷失自我。不仅用户体验受损,token开销也居高不下。TME树状记忆引擎通过结构化状态管理方案,彻底解决了这一痛点,让你的Agent像拥有完美记忆力的助手,在复杂任务中游刃有余,同时将token消耗降低26%。
诺奖得主Demis Hassabis表示,通过AI,DeepMind团队在一年里,完成了10亿年的博士研究时间!10亿年的科学探索被压缩到了一年之内,或许这才代表了AI技术的最高使命。
书接上回,用几块3000元显卡作为加速主力的一体机,就能跑通671B的DeepSeek。
人类智能并非通用智能。
“AI是一次改变我们所知一切的历史性机会。”美国当地时间2025年4月10日,全球电商平台亚马逊CEO安迪·贾西(Andy Jassy)在发布2024年度致股东信时,不遗余力地盛赞AI。
它是永远再砍一刀的诱惑,它是便宜货的天堂,它是亿万用户心甘情愿走入的折扣迷宫。在一个平常的夜晚,正当我又一次囤积便宜日用品时,拼多多的算法推荐开始发力,一坨坨带有AI字样的商品在我的购物首页扑面而来——有AI鼠标,外形像苍蝇脑壳;
拜时代所赐,中国最现代的猪圈早已进化成“楼房养猪”这种集约化、规模化养殖的新物种,同时也越来越科技化,突出表现在AI技术的活用上。咱们这个春天里的第一口鲜,没准儿就是一块“AI猪肉”
OpenAI重磅发布的GPT-4.1系列模型,带来了编程、指令跟随和长上下文处理能力的全面飞跃!由中科大校友Jiahui Yu领衔的团队打造。与此同时,备受争议的GPT-4.5将在三个月后停用,GPT-4.1 nano则以最小、最快、最便宜的姿态强势登场。
最近,Netflix 正在悄悄测试一项黑科技功能——由 ChatGPT 背后的 OpenAI 提供支持的智能搜索服务。这不仅仅是搜索条那么简单,它可能会彻底改变你跟内容平台“对话”的方式。
刚刚,Gemini 2.5 Pro编程登顶,6美元性价比碾压Claude 3.7 Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。
Figure公司通过强化学习,成功实现机器人的自然步态。利用高效物理模拟器,仅用几小时完成相当于多年训练的数据,训练出的策略无需额外调整即可「零样本」迁移至真实机器人。
AI辅助人类,完成了首个非平凡研究数学证明,破解了50年未解的数学难题!在南大校友的研究中,这个难题中q=3的情况,由o3-mini-high给出了精确解。
论AI如何从“人工智障”逆袭成“游戏救世主”
软银400亿美元豪赌OpenAI:远见卓识还是泡沫顶峰?
据最新消息,AI六小虎之一的月之暗面即将推出其首个AI内容社区产品,目前正在进行小范围灰度测试,预计本月底正式上线。这款产品经历了长达半年的内部孵化和打磨,是公司在AI战略上的最新尝试。
有在离谱。 高分论文因为没有引用先前的研究而被ICLR拒稿了?!
在游戏开发中,独立开发者往往就像一个“全能战士”,既要当程序员,又要当策划,还得懂美术和运营。
RTP-LLM 是阿里巴巴大模型预测团队开发的高性能 LLM 推理加速引擎。它在阿里巴巴集团内广泛应用,支撑着淘宝、天猫、高德、饿了么等核心业务部门的大模型推理需求。在 RTP-LLM 上,我们实现了一个通用的投机采样框架,支持多种投机采样方法,能够帮助业务有效降低推理延迟以及提升吞吐。
这一创新背后既有战略布局的深意,同样还暗藏诸多挑战。
来自国内的光电混合芯片技术,登上最新顶刊Nature!
自主通才科学家的 5 个层级。
随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。