AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
GPT开山一作,本科学历入职前CTO初创!OpenAI痛失「爱因斯坦级天才」

GPT开山一作,本科学历入职前CTO初创!OpenAI痛失「爱因斯坦级天才」

GPT开山一作,本科学历入职前CTO初创!OpenAI痛失「爱因斯坦级天才」

GPT开山一作、「爱因斯坦级的天才」携手OpenAI前首席研究官,一起加入OpenAI前CTO的新公司Thinking Machine Lab。有消息称,Thinking Machine Lab曾与风投洽谈,筹集超过1亿美元的资金。

来自主题: AI资讯
10285 点击    2025-04-10 12:33
首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

统一多模态大模型(U-MLLMs)逐渐成为研究热点,近期GPT-4o,Gemini-2.0-flash都展现出了非凡的理解和生成能力,而且还能实现跨模态输入输出,比如图像+文本输入,生成图像或文本。

来自主题: AI技术研报
8897 点击    2025-04-10 10:20
AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

4月7日,斯坦福以人为本人工智能研究所(HAI)发布《2025年AI指数报告》,这份长达456页的报告,全景展示了过去一年AI领域的关键进展。

来自主题: AI资讯
11699 点击    2025-04-10 10:08
谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

谷歌牌王炸!Gemini 2.5 Pro深度研究实测:14分钟,34页,15000字研究报告!

好消息,由谷歌最新的 Gemini 2.5 Pro 模型提供支持的 Deep Research(深度研究)正式发布!坏消息,目前仅 Gemini Advanced 付费会员可体验。

来自主题: AI资讯
8076 点击    2025-04-10 09:33
速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

速递|Thinking Machines再添两名大将,团队超半数来自OpenAI/DeepMind等顶尖实验室

前 OpenAI 首席技术官 Mira Murati(穆拉蒂)的新 AI 企业 Thinking Machines Lab 迎来了两位重量级顾问:前 OpenAI 首席研究官 Bob McGrew,和曾主导该公司多项突破性创新的前研究员 Alec Radford。

来自主题: AI资讯
7974 点击    2025-04-09 17:20
论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

刚刚,alphaXiv 推出了新功能「Deep Research for arXiv」,该功能可协助研究人员更高效地在 arXiv 平台上进行学术论文的检索与阅读,显著提升文献检索及研究效率。

来自主题: AI技术研报
10924 点击    2025-04-09 16:07
三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

路由LLM是指一种通过router动态分配请求到若干候选LLM的机制。论文提出且开源了针对router设计的全面RouterEval基准,通过整合8500+个LLM在12个主流Benchmark上的2亿条性能记录。将大模型路由问题转化为标准的分类任务,使研究者可在单卡甚至笔记本电脑上开展前沿研究。

来自主题: AI技术研报
6479 点击    2025-04-08 14:26
CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

LeCun谢赛宁等研究人员通过新模型Web-SSL验证了SSL在多模态任务中的潜力,证明其在扩展模型和数据规模后,能媲美甚至超越CLIP。这项研究为无语言监督的视觉预训练开辟新方向,并计划开源模型以推动社区探索。

来自主题: AI技术研报
8929 点击    2025-04-07 15:09
LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

来自UIUC等大学的华人团队,从LLM的基础机制出发,揭示、预测并减少幻觉!通过实验,研究人员揭示了LLM的知识如何相互影响,总结了幻觉的对数线性定律。更可预测、更可控的语言模型正在成为现实。

来自主题: AI技术研报
8449 点击    2025-04-07 14:55