AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

反思技术因其简单性和有效性受到了广泛的研究和应用,具体表现为在大语言模型遇到障碍或困难时,提示其“再想一下”,可以显著提升性能 [1]。然而,2024 年谷歌 DeepMind 的研究人员在一项研究中指出,大模型其实分不清对与错,如果不是仅仅提示模型反思那些它回答错误的问题,这样的提示策略反而可能让模型更倾向于把回答正确的答案改错 [2]。

来自主题: AI技术研报
6632 点击    2025-07-14 15:40
斯坦福Arc Tahoe-100M虚拟细胞团队专访:AI制药的壁垒不是"模型"?而是高质量、亿级规模的数据集

斯坦福Arc Tahoe-100M虚拟细胞团队专访:AI制药的壁垒不是"模型"?而是高质量、亿级规模的数据集

斯坦福Arc Tahoe-100M虚拟细胞团队专访:AI制药的壁垒不是"模型"?而是高质量、亿级规模的数据集

Vevo Therapeutics(现为Tahoe)与Arc研究所,两家分别在生物技术商业转化和非营利性基础研究领域领先的机构,于2025年2月联合发布了一项里程碑式的成果:全球最大的单细胞药物扰动数据集Tahoe-100M。

来自主题: AI资讯
6777 点击    2025-07-14 12:57
一条Vibe coding的好提示词长啥样?看下来自一线的18位工程师画的流程图

一条Vibe coding的好提示词长啥样?看下来自一线的18位工程师画的流程图

一条Vibe coding的好提示词长啥样?看下来自一线的18位工程师画的流程图

您是否也曾经想过这样的场景:产品经理把idea直接扔给AI编程,然后就能得到完美能用的代码?来自德国弗劳恩霍夫研究所和杜伊斯堡-埃森大学的研究者们刚刚给我们泼了一盆冷水。

来自主题: AI资讯
6474 点击    2025-07-14 11:56
奥特曼气到快失眠?OpenAI前大佬力挺:小扎砸钱挖墙脚,1亿美元很合理

奥特曼气到快失眠?OpenAI前大佬力挺:小扎砸钱挖墙脚,1亿美元很合理

奥特曼气到快失眠?OpenAI前大佬力挺:小扎砸钱挖墙脚,1亿美元很合理

在硅谷,顶尖AI人才的身价突破天际!最近,Meta豪掷数亿美元签下最顶尖的AI研究者。硅谷这场人才战争也越演越烈。这是否值得投资?这场人才争夺背后,又隐藏着怎样的深层次问题?

来自主题: AI资讯
5647 点击    2025-07-14 11:19
VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型因其出色的多模态理解与泛化能力,已成为机器人领域的重要研究方向。尽管相关技术取得了显著进展,但在实际部署中,尤其是在高频率和精细操作等任务中,VLA 模型仍受到推理速度瓶颈的严重制约。

来自主题: AI技术研报
6210 点击    2025-07-14 11:12
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。

来自主题: AI技术研报
6745 点击    2025-07-14 10:25
Anthropic 放大招了!官方推出Claude免费课程,2025年AI开发者必备!

Anthropic 放大招了!官方推出Claude免费课程,2025年AI开发者必备!

Anthropic 放大招了!官方推出Claude免费课程,2025年AI开发者必备!

在这篇文章中,它详细展示了如何构建一个有效的多智能体研究系统,这是一个架构,其中主代理(The Lead Agent)会生成和协调子代理(Subagents),以并行方式探索复杂查询,内容涵盖系统架构、提示工程以及评估方法等。

来自主题: AI资讯
6859 点击    2025-07-13 12:53
无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。

来自主题: AI技术研报
6514 点击    2025-07-13 11:37
前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

前 OpenAI 研究员 Kevin Lu:别折腾 RL 了,互联网才是让大模型进步的关键

「停止研究 RL 吧,研究者更应该将精力投入到产品开发中,真正推动人工智能大规模发展的关键技术是互联网,而不是像 Transformer 这样的模型架构。」

来自主题: AI资讯
7076 点击    2025-07-13 11:23
刚刚,「吉卜力狂欢」GPT-4o功臣被Meta挖走!华南理工女学霸曾与奥特曼同台

刚刚,「吉卜力狂欢」GPT-4o功臣被Meta挖走!华南理工女学霸曾与奥特曼同台

刚刚,「吉卜力狂欢」GPT-4o功臣被Meta挖走!华南理工女学霸曾与奥特曼同台

GPT-4o引爆全球「吉卜力风格」风潮后,其核心成员——华南理工学霸Lu Liu与伯克利博士Allan Jabri——双双跳槽Meta,两人曾在OpenAI主导多模态AI研究,与奥特曼同台展示关键功能。此次挖角再次凸显OpenAI内部动荡后的人才流失危机。

来自主题: AI资讯
7704 点击    2025-07-12 19:19