刚刚谷歌发布 Gemini 3.1 Pro
刚刚谷歌发布 Gemini 3.1 Pro今天凌晨,Google 发布 Gemini 3.1 Pro。核心提升在推理能力,ARC-AGI-2(抽象推理基准)从 3 Pro 的 31.1% 跳到 77.1%,翻了一倍多,GPQA Diamond(科学知识推理)从 91.9% 提到 94.3%
今天凌晨,Google 发布 Gemini 3.1 Pro。核心提升在推理能力,ARC-AGI-2(抽象推理基准)从 3 Pro 的 31.1% 跳到 77.1%,翻了一倍多,GPQA Diamond(科学知识推理)从 91.9% 提到 94.3%
2月19日,彭博社援引多位匿名知情人士的消息称,OpenAI 正接近敲定一轮创纪录级别的新融资交易第一阶段,预计该阶段融资能够为OpenAI带来超过1000亿美元资金。在这轮融资后,OpenAI的整体估值可能会超过8500亿美元。
当前 AI Agent 行业有一个系统性的浪费:每个 Agent 都像一块一次性电池,跑完一个任务,过程中积累的经验、调试的策略、踩过的坑,全部随任务结束而消失。下一个 Agent 遇到相同问题,又得从零开始。
谷歌在 7.5 亿月活的 Gemini 中上线了 AI 音乐生成功能,输入一句话或一张照片,几秒就能得到一首带人声和歌词的完整歌曲。背后是 DeepMind 最新的 Lyria 3 模型,训练数据超 200 万首曲目。对 Suno 等 AI 音乐创业公司而言,竞争从此不再只是比模型,更是要比入口。
此前彭博社等媒体报道称,近期月之暗面即将完成的超7亿美元融资,由阿里、腾讯、五源资本、九安医疗等老股东领投,并且已经超募。与此同时,月之暗面已经以100亿-120亿美金的估值,无缝开启了新一轮融资。
这次的 Kimi Claw,其实已经把 ClawHub 里的 Skills 全都接进来了。你可以直接用一句话,让它在浏览器里把需要的 Skills 装到云端环境里,不用自己折腾配置,也不用手动一堆步骤。
今天初⼆迎财神,在分享 OpenClaw 最简便的玩法前,先祝各位财源⼴进,今年⼀路开挂。 大家是否感觉今年春晚少了些年味,多了些广告味? 其实广告一直都有,2015 年微信摇一摇红包、2017 年支
最近刷 X 帖子,看到很多海外博主推荐 Kimi 2.5 接入Clawdbot。看来前段时间研究 Clawbot,错过的东西有点多。下面写个详细教程,教大家如何把Kimi 2.5 接入 Clawdbot(OpenClaw)。
昨天春晚张杰献唱的《驭风歌》大家都听了吧?气势是相当磅礴了。但你知道吗?其实这首歌的表演,背后还有一个AI彩蛋:没错,就是背景视频里那幅流动的巨型水墨画卷中,那一群气势磅礴、奔腾而来的骏马——
1970年,一个叫Gordon Gallup的心理学家把一面镜子放进了黑猩猩的笼子里。黑猩猩一开始对着镜子龇牙。它以为那是另一只黑猩猩。它威胁它,拍胸脯,绕到镜子后面找那只不存在的敌人。
这次是 Anthropic,率先发布了他们称之为「我们目前能力最强的 Sonnet 模型」Claude Sonnet 4.6。Claude 称,新模型对编码、计算机使用、长上下文推理、智能体规划、知识工作和设计进行了全面升级。
从灵巧手开始「制造时间」:揭秘 Sharpa 的通用人工智能之路 作者|Li Yuan 编辑|郑玄 今年的春晚,已经变成机器人大战了。 在热闹之下,笔者关注到了一个很有趣的细节,相比于去年的机器人,今
今日凌晨,马斯克在社交平台X的推文中称,Grok 4.2能快速学习,测试阶段研究人员会每天进行改进,下个月公测结束时,Grok 4.2的智能程度和速度将比Grok 4高出一个数量级。
就在OpenAI宣布招聘OpenClaw创始人皮特·斯坦伯格(Peter Steinberger)的一天后,Meta便迅速发起反击。 旗下的Manus正式推出了Manus Agents功能,对标OpenClaw,并且首先在Telegram上线。
据彭博社记者 Mark Gurman 爆料,苹果正在加速推进三款全新的 AI 可穿戴设备。这三款产品都将围绕 Siri 数字助手构建,通过摄像头获取视觉上下文来执行各种操作。
昨天晚上的春晚,想必大多数人都看了。虽然大概率没看完,说实话确实有点无聊,但前三个节目的人形机器人小品,估计很多人都多少瞄过一眼。 有人在朋友圈吐槽:「之前春晚没有年味,今年的春晚没有人味。」 我倒是
这一届上台的机器人各有各的路子——有的走仿生路线,模仿起人来连神态都安排上了;有的直接拼运动能力,一整套动作打下来,现场效果确实很炸。但如果你这一年已经看过太多机器人 demo,其实也不会太惊讶。春晚这个舞台,本来就是要把「最能表演的东西」集中展示出来。
近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从
本文提出一种具有 SE(p) 不变传输性质的度量 SEINT:通过构造无需训练的 SE(p) 不变表示,将高维结构信息压缩为可用于 Optimal Transport (OT) 对齐的一维表征,从而在保持不变性与严格度量性质的同时显著提升效率。
不可学习样本(Unlearnable Examples)是一类用于数据保护的技术,其核心思想是在原始数据中注入人类难以察觉的微小扰动,使得未经授权的第三方在使用这些数据训练模型时,模型的泛化性能显著下降,甚至接近随机猜测,从而达到阻止数据被滥用的目的。
为了支持多模型协同研究并加速这一未来愿景的实现,华盛顿大学 (University of Washington) 冯尚彬团队联合斯坦福大学、哈佛大学等研究人员提出 MoCo—— 一个针对多模型协同研究的 Python 框架。MoCo 支持 26 种在不同层级实现多模型交互的算法,研究者可以灵活自定义数据集、模型以及硬件配置,比较不同算法,优化自身算法,以此构建组合式人工智能系统。MoCo 为设计、
今日凌晨,Anthropic推出史上最强Sonnet模型——Claude Sonnet 4.6,新模型在编程、计算机使用、长上下文推理、Agent规划、知识工作和设计工作上全面进化。
最近,英伟达又发布了一个炸裂成果。英伟达高级工程师Bing Xu开源了VibeTensor项目,并且表示:「这是第一个完全由 AI 智能体生成的深度学习系统,没有一行人类编写的代码。」
当身披金甲的 H2 机器人,手持金箍棒,踩着由一群机器狗组成的「筋斗云」丝滑入场、当一堆宇树 G1 机器人大秀武术后,一大堆切片视频正在海外社交媒体疯传。
在小品《奶奶的最爱》中,天放来到蔡明饰演的奶奶家,却被“奶奶”和机器人“捉弄”,后来奶奶从外面回来,天放才发现,刚才和他聊天的“奶奶”竟是仿生机器人。
千问 3.5 总参数量仅 3970 亿,激活参数更是只有 170 亿,不到上一代万亿参数模型 Qwen3-Max 的四分之一,性能大幅提升、还顺带实现了原生多模态能力的代际跃迁。
没有让我们等待多久,阿里刚刚正式发布并开源了 Qwen3.5 系列模型,页面显示有两款模型,分别为最新大语言模型的 Qwen3.5-Plus,以及定位为开源系列旗舰的 Qwen3.5-397B-A17B。两者均支持文本处理与多模态任务。
DeepSeek V4,据说明天就要上线了?这是首个匹敌顶尖闭源模型的开源模型,被网友评为「一鲸落万物生」。泄露的基准测试显示,它在SWE-bench Verified上取得了83.7%,已经超越Opus 4.5和GPT-5.2!
目前,Claude Code 拓麻歌子这个宠物项目,已经在 GitHub 上开源,我们也可以直接把这个电子宠物部署到自己的 Claude Code 里面。它具体是如何工作的呢,根据作者对项目的介绍,举几个例子来说明一下。
即便是像土木,建筑这样的传统行业,也受到AI的冲击。从帮助记录工程日志的智能体,到记录了老工人经验的安全智能体。AI正在建筑行业,让有经验的工人们获得数字永生。