AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

大语言模型解决不等式证明问题时,可以给出正确答案,但大多数时候是靠猜。推理过程经不起推敲,逻辑完全崩溃。

来自主题: AI技术研报
5866 点击    2025-06-20 09:48
能自我提升的Agent需要内在的元认知学习能力。| 剑桥ICML最新

能自我提升的Agent需要内在的元认知学习能力。| 剑桥ICML最新

能自我提升的Agent需要内在的元认知学习能力。| 剑桥ICML最新

剑桥大学和范德夏尔实验室在 ICML 2024 上发表的立场论文,直接挑战了当前Agent开发的核心假设:我们一直在用错误的方式让Agent"自我改进"。

来自主题: AI技术研报
5699 点击    2025-06-20 09:39
27、42、73,DeepSeek这些大模型竟都喜欢这些数!为什么?

27、42、73,DeepSeek这些大模型竟都喜欢这些数!为什么?

27、42、73,DeepSeek这些大模型竟都喜欢这些数!为什么?

42,这个来自《银河系漫游指南》的「生命、宇宙以及一切问题的终极答案」已经成为一个尽人皆知的数字梗,似乎就连 AI 也格外偏好这个数字。

来自主题: AI资讯
8227 点击    2025-06-19 15:18
ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

AI上瘾堪比「吸毒」!MIT最新研究惊人发现:长期依赖大模型,学习能力下降、大脑受损,神经连接减少47%。AI提高效率的说法,或许根本就是误解!

来自主题: AI技术研报
6469 点击    2025-06-19 15:04
单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

单GPU搞定高清长视频生成,效率×10!引入Mamba机制突破DiT瓶颈 | 普林斯顿&Meta

普林斯顿大学和Meta联合推出的新框架LinGen,以MATE线性复杂度块取代传统自注意力,将视频生成从像素数的平方复杂度压到线性复杂度,使单张GPU就能在分钟级长度下生成高质量视频,大幅提高了模型的可扩展性和生成效率。

来自主题: AI技术研报
6509 点击    2025-06-19 12:07
字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。

来自主题: AI技术研报
6085 点击    2025-06-19 11:31
20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

GRIT能让多模态大语言模型(MLLM)通过生成自然语言和图像框坐标结合的推理链进行「图像思维」,仅需20个训练样本即可实现优越性能!

来自主题: AI技术研报
7284 点击    2025-06-19 11:03