AI资讯新闻榜单内容搜索-SOTA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: SOTA
端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

一个智能驾驶系统,在迈向高阶自动驾驶的过程中,应当具备何种能力?除了基础的感知、预测、规划、决策能力,如何对三维空间进行更深入的理解?如何具备包含法律法规、道德原则、防御性驾驶原则等知识?如何进行基本的视觉 - 语言推理?如何让智能系统具备世界观和价值观?

来自主题: AI技术研报
7589 点击    2026-01-15 09:18
国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

国产Nano Banana开源!用华为AI芯片训练,1张图只要1毛钱

今天,首个在国产芯片上完成全程训练的SOTA(最佳水平)多模态模型开源。这是智谱联合华为开源的图像生成模型GLM-Image。从数据到训练的全流程,该模型完全基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成构建。

来自主题: AI资讯
9504 点击    2026-01-14 14:09
蚂蚁再把医疗AI卷出新高度!蚂蚁·安诊儿医疗大模型开源即SOTA

蚂蚁再把医疗AI卷出新高度!蚂蚁·安诊儿医疗大模型开源即SOTA

蚂蚁再把医疗AI卷出新高度!蚂蚁·安诊儿医疗大模型开源即SOTA

就在医疗AI赛道激战正酣时,一个搅局者低调入场了。它就是蚂蚁集团联合浙江省卫生健康信息中心、浙江省安诊儿医学人工智能科技有限公司开源的医疗大模型——蚂蚁·安诊⼉(AntAngelMed)。

来自主题: AI资讯
8252 点击    2026-01-10 17:03
别被室内基准高分骗了:大模型是在推理空间,还是在「背答案」?

别被室内基准高分骗了:大模型是在推理空间,还是在「背答案」?

别被室内基准高分骗了:大模型是在推理空间,还是在「背答案」?

2025 年,随着李飞飞等学者将 “空间智能”(Spatial Intelligence)推向聚光灯下,这一领域迅速成为了大模型竞逐的新高地。通用大模型和各类专家模型纷纷在诸多室内空间推理基准上刷新 SOTA,似乎 AI 在训练中已经更好地读懂了三维空间。

来自主题: AI技术研报
8103 点击    2026-01-07 09:36
比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

让静态3D模型「动起来」一直是图形学界的难题:物理模拟太慢,生成模型又不讲「物理基本法」。近日,北京大学团队提出DragMesh,通过「语义-几何解耦」范式与双四元数VAE,成功将核心生成模块的算力消耗降低至SOTA模型的1/10,同时将运动轴预测误差降低了10倍。

来自主题: AI资讯
7152 点击    2026-01-05 09:35
「北京版幻方」九坤投资冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」九坤投资冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」九坤投资冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

又一个中国新模型被推到聚光灯下,刷屏国内外科技圈。IQuest-Coder-V1模型系列,看起来真的很牛。在最新版SWE-Bench Verified榜单中,40B参数版本的IQuest-Coder取得了81.4%的成绩,这个成绩甚至超过了Claude Opus-4.5和GPT-5.2(这俩模型没有官方资料,但外界普遍猜测参数规模在千亿-万亿级)。

来自主题: AI资讯
8993 点击    2026-01-02 15:14
超越谷歌,全球第一!上交AI科学家王者归来,登顶OpenAI MLE-bench

超越谷歌,全球第一!上交AI科学家王者归来,登顶OpenAI MLE-bench

超越谷歌,全球第一!上交AI科学家王者归来,登顶OpenAI MLE-bench

刚刚,由SciMaster团队推出的AI机器学习专家ML-Master 2.0,基于国产开源大模型DeepSeek,在OpenAI权威基准测试MLE-bench中一举击败Google、Meta、微软等国际顶流,刷新全球SOTA,再次登顶!目前该功能已在SciMaster线上平台开放waiting list,欢迎申请体验。

来自主题: AI技术研报
6575 点击    2025-12-25 14:22
生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

视频生成模型总是「记性不好」?生成几秒钟后物体就变形、背景就穿帮?北大、中大等机构联合发布EgoLCD,借鉴人类「长短时记忆」机制,首创稀疏KV缓存+LoRA动态适应架构,彻底解决长视频「内容漂移」难题,在EgoVid-5M基准上刷新SOTA!让AI像人一样拥有连贯的第一人称视角记忆。

来自主题: AI技术研报
7549 点击    2025-12-25 10:16
AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

MiniMax最新旗舰级Coding & Agent模型M2.1,刚刚对外发布了。这一次,它直接甩出了一份硬核成绩单,在衡量多语言软件工程能力的Multi-SWE-bench榜单中,以仅10B的激活参数拿下了49.4%的成绩,超越了Claude Sonnet 4.5等国际顶尖竞品,拿下全球SOTA。

来自主题: AI资讯
8646 点击    2025-12-24 08:08