早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR
早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLRICLR论文STEM架构率先提出「查表式记忆」架构,早于DeepSeek Engram三个月。它将Transformer的FFN从动态计算改为静态查表,用token索引的embedding表直接读取记忆,彻底解耦记忆容量与计算开销。
ICLR论文STEM架构率先提出「查表式记忆」架构,早于DeepSeek Engram三个月。它将Transformer的FFN从动态计算改为静态查表,用token索引的embedding表直接读取记忆,彻底解耦记忆容量与计算开销。
制药业最保守的钱,开始流向最激进的技术。
大模型能否预测未来?UniPat AI构建了一套完整的预测智能基础设施,Echo,包含动态评测引擎、面向未来事件的训练范式和预测专用模型EchoZ-1.0。在其公开的General AI Prediction Leaderboard上,EchoZ-1.0稳居第一,并在与Polymarket人类交易市场的直接对比中展现出显著优势。
在GitHub上上线没几天就冲到5.4k stars的3D建筑编辑器开源项目——Pascal Editor。设计软件咱见的不少,但跑在浏览器里的还是有点新鲜,我帮大家浅浅总结了一下Pascal Editor的一些核心亮点:
动点出海获悉,总部位于泰国的AI软件公司Amity宣布完成1亿美元D轮融资。Amity称,这也是迄今东南亚生成式AI领域规模最大的单笔融资之一。据了解,本轮融资由EDBI领投,Asia Partners、SMDV、CMLIM Capital等机构参投。完成本轮融资后,Amity累计融资金额达到1.6亿美元。此前,Amity曾于2024年完成6000万美元C轮融资。
看过 HBO 神剧《硅谷》(Silicon Valley)的朋友,想必都对那个名为 Pied Piper(魔笛手)的虚构公司念念不忘。
过去几年,多模态模型在理解任务上快速演进,图像问答、OCR、视觉推理、跨模态对话等能力不断提升;与此同时,图像生成模型也在视觉质量、指令遵循和细节表达上持续突破。下一步一个自然的问题是:能否用同一个模型,同时做好理解与生成?这正是统一多模态模型(Unified Multimodal Models, UMMs)正在回答的问题。
3月23日,在DIA「湾区智造」论坛上,毕鲁斯人工智能正式发布 Billus-060C-EDIT-image。为了这一刻,我们潜心打磨,终于在建筑与工业设计领域,实现了从 0 到 1 的技术研发突破。
Anthropic 今天同时发布了 Computer Use(电脑控制)、/schedule(云端定时任务)、还有 Claude Code Desktop。
据接近腾讯混元团队的知情人士透露,原字节Seed视觉AI平台团队负责人肖学锋,Infra团队张弛于近期低调入职腾讯,负责大模型Infra相关工作,向腾讯首席AI科学家姚顺雨汇报。