AI资讯新闻榜单内容搜索-Deep

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Deep
对谈 DeepSeek-Prover 核心作者辛华剑:Multi Agent 天然适合形式化数学 |Best Minds

对谈 DeepSeek-Prover 核心作者辛华剑:Multi Agent 天然适合形式化数学 |Best Minds

对谈 DeepSeek-Prover 核心作者辛华剑:Multi Agent 天然适合形式化数学 |Best Minds

Era of Experience 这篇文章中提到:如果要实现 AGI, 构建能完成复杂任务的通用 agent,必须借助“经验”这一媒介,这里的“经验”就是指强化学习过程中模型和 agent 积累的、人类数据集中不存在的高质量数据。

来自主题: AI资讯
6399 点击    2025-06-14 12:58
DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

仅用不到1200行代码,实现最小化且完全可读的vLLM!DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。项目名为Nano-vLLM(纳米级-vLLM),有三大特点:快速离线推理:推理速度可与vLLM相媲美

来自主题: AI技术研报
7033 点击    2025-06-13 15:41
5000次风暴,谷歌训出AI预言家Weather Lab!天气预报ChatGPT时刻?

5000次风暴,谷歌训出AI预言家Weather Lab!天气预报ChatGPT时刻?

5000次风暴,谷歌训出AI预言家Weather Lab!天气预报ChatGPT时刻?

昨天,谷歌DeepMind与谷歌研究团队正式推出交互式气象平台Weather Lab,用于共享人工智能天气模型。在热带气旋路径预测方面,谷歌这次的新模型刷新SOTA,是首个在性能上明确超越主流物理模型的AI预测模型。

来自主题: AI资讯
8364 点击    2025-06-13 15:24
黄铁军对大模型的四个预判:洗牌、安全核爆、GPT-5与再造DeepSeek

黄铁军对大模型的四个预判:洗牌、安全核爆、GPT-5与再造DeepSeek

黄铁军对大模型的四个预判:洗牌、安全核爆、GPT-5与再造DeepSeek

4月份,李飞飞教授领先编制的《2025年人工智能指数报告》提供的数据显示,2024年全年具有特殊影响力的模型(Notable AI models)当中,排名前5的几乎都来自美国、中国的科技巨头。

来自主题: AI技术研报
6815 点击    2025-06-13 14:14
Hugging Face发布开放权重模型贡献榜:中国团队Qwen与DeepSeek跻身TOP15

Hugging Face发布开放权重模型贡献榜:中国团队Qwen与DeepSeek跻身TOP15

Hugging Face发布开放权重模型贡献榜:中国团队Qwen与DeepSeek跻身TOP15

全球知名开源AI平台Hugging Face近日发布开放权重模型贡献榜,中国团队Qwen和DeepSeek成功入围前15名,彰显了中国在全球开源AI领域的技术实力与影响力。该榜单表彰为开源社区提供高质量模型权重的团队,其模型广泛应用于学术与产业创新。

来自主题: AI资讯
7328 点击    2025-06-12 18:56
DeepMind首个猜想库开源,获陶哲轩力挺!

DeepMind首个猜想库开源,获陶哲轩力挺!

DeepMind首个猜想库开源,获陶哲轩力挺!

谷歌DeepMind重磅出击,开源首个形式化数学猜想库,获陶哲轩力挺!从解析数论的兰道猜想开始,这个开源项目将为AI破解数学难题的未来铺路。

来自主题: AI技术研报
5522 点击    2025-06-12 18:03
通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

作者介绍: 本文作者来自通义实验室 RAG 团队,致力于面向下一代 RAG 技术进行基础研究。该团队 WebWalker 工作近期也被 ACL 2025 main conference 录用。

来自主题: AI技术研报
6072 点击    2025-06-12 15:24
别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

还记得DeepSeek-R1发布时AI圈的那波狂欢吗?"提示工程已死"、"再也不用费心写复杂提示了"、"推理模型已经聪明到不再需要学习提示词了"......这些观点在社交媒体上刷屏,连不少技术大佬都在转发。再到最近,“提示词写死了”......现实总是来得这么快——乔治梅森大学的研究者们用一个严谨得让人无法反驳的实验,狠狠打了所有人的脸!

来自主题: AI技术研报
6995 点击    2025-06-12 11:59
103K「硬核」题,让大模型突破数学推理瓶颈

103K「硬核」题,让大模型突破数学推理瓶颈

103K「硬核」题,让大模型突破数学推理瓶颈

本文将介绍 DeepMath-103K 数据集。该工作由腾讯 AI Lab 与上海交通大学团队共同完成。

来自主题: AI技术研报
8079 点击    2025-06-11 14:50