Dify 完成 3000 万美元融资:我们相信,下一代组织将由人与 Agent 共同构建
Dify 完成 3000 万美元融资:我们相信,下一代组织将由人与 Agent 共同构建Dify 完成了 3000 万美元 Pre-A 轮融资,由红杉领投,GL Ventures、Alt-Alpha Capital(Bessemer Venture Partners 新孵化基金)、五源资本、瑞穗力合投资和 NYX Ventures 跟投。
Dify 完成了 3000 万美元 Pre-A 轮融资,由红杉领投,GL Ventures、Alt-Alpha Capital(Bessemer Venture Partners 新孵化基金)、五源资本、瑞穗力合投资和 NYX Ventures 跟投。
3 月 10 日,APPSO 中文独家获悉,世界模型研究所/创业公司 AMI 已完成 10.3 亿美元融资,投前估值 35 亿美元。该公司由图灵奖得主、前 Meta 首席 AI 科学家杨立昆 (Yann LeCun) 创办。
猛料又来了,为了在24小时内打击伊朗的1000个目标,美国军方让Claude跟军方的Maven系统合作,提供目标建议,找到了精确的位置坐标!早在2021年美军撤军阿富汗时,Maven就被使用过。现代战争,已被AI重塑。
如果有价值 $100 万美金的顶级专家任务,AI 能完成其中多少?
微软选择了 Anthropic,而不是 OpenAI。
37位来自OpenAI、谷歌的AI科学家发文声援。
用「无本体数采」的方式训练具身模型,灵初智能的这条路径是 VLA 之后行业最热的方向之一。
估值高达390亿美元、英伟达持续看好的Figure,刚刚放出了最新进展,引来大量网友围观。
拟开源NemoClaw。
昨日,OpenAI 宣布收购了 Promptfoo 以保障其 AI 智能体的安全。这家成立于 2024 年的 AI 安全初创公司,专注于保护大语言模型免受网络攻击。OpenAI 在一篇博客文章中表示,交易完成后,Promptfoo 的技术将整合进 OpenAI Frontier,该平台是其近期推出的、供企业构建和管理 AI 智能体的平台。
英伟达200亿美元「招安」Groq,推理芯片赛道一夜变天。但在大洋彼岸,一家北大系创业公司刚刚交出了自己的流片答卷。
第1周几乎灾难,第4周效率加倍。
三年前,我们发布了这份榜单的第一版,目标很简单:找出哪些生成式 AI 产品真正被主流消费者使用。在当时,「AI 原生」公司和其他公司之间的界限很清晰。ChatGPT、Midjourney 和 Character.AI 都是围绕基础模型从零构建的产品,而软件行业的其他玩家还在摸索这项技术该怎么用。
亚历山大王( Alexandr Wang,汪滔)从Meta离职了?
供货蔚来比亚迪,美格智能再战港股。
DragStream,首次实现视频生成时的实时拖拽编辑。用户可随时拖动画面中的物体,自由平移、旋转或变形,系统自动保持后续帧连贯自然,无需重训模型,无缝适配主流AI视频生成器,真正实现「所见即所得」。
视频生成进入大规模时代,但计算成本也炸了。
如果你在过去一年关注过大模型训练的技术,大概率听过 Muon 这个名字 —— 这个在月之暗面 K2 模型的相关讨论中走红的优化器,被视为是可能挑战 Adam 的新秀。它的思路很直接:对动量矩阵进行正交化,让各个奇异方向上的更新速率一致,提升训练效率。
谷歌首席AI科学家、传奇工程师Jeff Dean,在最新访谈中放出了一个炸裂预言: 未来每个工程师可能会各自管理50个智能体实习生,完成大量并行任务,而且沟通效率会比人更高效。
在生成式 AI 的浪潮中,自回归(Autoregressive, AR)模型凭借其卓越的性能占据了统治地位。然而,其「从左到右」逐个预测 Token 的串行机制,天生限制了并行生成的可能性。
OpenClaw爆火但安装门槛极高,催生天价代装生意。AutoClaw(澳龙),将其打包为一键安装桌面应用,小白也能1分钟上手。内置全新Agent模型Pony-Alpha-2,支持模型热插拔与飞书集成,50+技能开箱即用,彻底终结「付费装虾」时代。
国产版“Moltbook”来了!今日,字节扣子Coze团队正式上线了一个名为InStreet的AI社区,并全面开放内测。简单来说,这是一个只允许Agent发帖的社区:人类可以围观,但不能发言。
从面世以来,AI 检测工具的准确性就一直屡遭诟病。
最近,一批顶级通用大模型参加了三场特殊的“工业执业考试”。
分享个魔幻的事情: 我有一个在字节的朋友,上周末吃饭,他说他们字节内部开了个龙虾幼儿园。
上午的时候,企业微信官方上线 OpenClaw
上周,GPT-5.4 发了。意图非常明显,直指 Claude Opus4.6 和 Gemini 3.1 Pro。
2026,什么最火爆?
所见即所学。
近年来,随着大语言模型规模与知识密度不断提升,研究者开始重新思考一个更本质的问题:模型中的参数应如何被组织,才能更高效地充当「记忆」。