AI资讯新闻榜单内容搜索-Deep

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Deep
首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

统一多模态大模型(U-MLLMs)逐渐成为研究热点,近期GPT-4o,Gemini-2.0-flash都展现出了非凡的理解和生成能力,而且还能实现跨模态输入输出,比如图像+文本输入,生成图像或文本。

来自主题: AI技术研报
7021 点击    2025-04-10 10:20
谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

好消息,由谷歌最新的 Gemini 2.5 Pro 模型提供支持的 Deep Research(深度研究)正式发布!坏消息,目前仅 Gemini Advanced 付费会员可体验。

来自主题: AI资讯
6766 点击    2025-04-10 09:33
英伟达253B开源新王登场,Llama 4三天变陪衬!直逼DeepSeek-R1成推理天花板

英伟达253B开源新王登场,Llama 4三天变陪衬!直逼DeepSeek-R1成推理天花板

英伟达253B开源新王登场,Llama 4三天变陪衬!直逼DeepSeek-R1成推理天花板

Llama 4刚出世就被碾压!英伟达强势开源Llama Nemotron-253B推理模型,在数学编码、科学问答中准确率登顶,甚至以一半参数媲美DeepSeek R1,吞吐量暴涨4倍。关键秘诀,就在于团队采用的测试时Scaling。

来自主题: AI资讯
5607 点击    2025-04-09 18:02
速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

前 OpenAI 首席技术官 Mira Murati(穆拉蒂)的新 AI 企业 Thinking Machines Lab 迎来了两位重量级顾问:前 OpenAI 首席研究官 Bob McGrew,和曾主导该公司多项突破性创新的前研究员 Alec Radford。

来自主题: AI资讯
6342 点击    2025-04-09 17:20
论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

刚刚,alphaXiv 推出了新功能「Deep Research for arXiv」,该功能可协助研究人员更高效地在 arXiv 平台上进行学术论文的检索与阅读,显著提升文献检索及研究效率。

来自主题: AI技术研报
9115 点击    2025-04-09 16:07
斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

2025年斯坦福HAI报告重磅发布,456页深度剖析全球AI领域的最新趋势:中美顶级模型性能差距缩至0.3%,以DeepSeek为代表的模型强势崛起,逼近闭源巨头;推理成本暴降,小模型性能飙升,AI正变得更高效、更普惠。

来自主题: AI资讯
8138 点击    2025-04-08 16:45
颠覆传统信息搜索,效果是之前SOTA的三倍?UIUC韩家炜、孙冀萌团队开源DeepRetrieval,让模型端到端地学会搜索!

颠覆传统信息搜索,效果是之前SOTA的三倍?UIUC韩家炜、孙冀萌团队开源DeepRetrieval,让模型端到端地学会搜索!

颠覆传统信息搜索,效果是之前SOTA的三倍?UIUC韩家炜、孙冀萌团队开源DeepRetrieval,让模型端到端地学会搜索!

在信息检索系统中,搜索引擎的能力只是影响结果的一个方面,真正的瓶颈往往在于:用户的原始 query 本身不够好。

来自主题: AI技术研报
6971 点击    2025-04-08 14:36
用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

推理增强型大语言模型LRM(如OpenAI的o1、DeepSeek R1和Google的Flash Thinking)通过在生成最终答案前显式生成中间推理步骤,在复杂问题解决方面展现了卓越性能。然而,对这类模型的控制仍主要依赖于传统的输入级操作,如提示工程(Prompt Engineering)等方法,而你可能已经发现这些方法存在局限性。

来自主题: AI技术研报
1781 点击    2025-04-08 08:50
论文读得慢,可能是工具的锅,一手实测科研专用版「DeepSeek」

论文读得慢,可能是工具的锅,一手实测科研专用版「DeepSeek」

论文读得慢,可能是工具的锅,一手实测科研专用版「DeepSeek」

「未来,99% 的 attention 将是大模型 attention,而不是人类 attention。」这是 AI 大牛 Andrej Karpathy 前段时间的一个预言。这里的「attention」可以理解为对内容的需求、处理和分析。也就是说,他预测未来绝大多数资料的处理工作将由大模型来完成,而不是人类。

来自主题: AI资讯
8301 点击    2025-04-07 17:09