AI资讯新闻榜单内容搜索-MIT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MIT
Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

今天,著名的人工智能学者和认知科学家 Gary Marcus 转推了 MIT、芝加哥大学、哈佛大学合著的一篇爆炸性论文,称「对于 LLM 及其所谓能理解和推理的神话来说,情况变得更糟了 —— 而且是糟糕得多。」

来自主题: AI技术研报
6110 点击    2025-06-29 16:11
MIT终身教授何恺明,入职谷歌了

MIT终身教授何恺明,入职谷歌了

MIT终身教授何恺明,入职谷歌了

AI大牛何恺明最新动向来了!

来自主题: AI资讯
8856 点击    2025-06-26 16:30
刚刚,何恺明官宣入职谷歌DeepMind!

刚刚,何恺明官宣入职谷歌DeepMind!

刚刚,何恺明官宣入职谷歌DeepMind!

AI大神何恺明正式入职谷歌DeepMind,担任杰出科学家,同时保留MIT终身副教授身份。从Meta到MIT,再到如今的谷歌,这位「学界+业界」双修的大牛,将为DeepMind的AGI注入一针强心剂。

来自主题: AI资讯
8350 点击    2025-06-26 10:34
信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

人类从农耕时代到工业时代花了数千年,从工业时代到信息时代又花了两百多年,而 LLM 仅出现不到十年,就已将曾经遥不可及的人工智能能力普及给大众,让全球数亿人能够通过自然语言进行创作、编程和推理。

来自主题: AI技术研报
8999 点击    2025-06-25 10:37
合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

基础模型严重依赖大规模、高质量人工标注数据来学习适应新任务、领域。为解决这一难题,来自北京大学、MIT等机构的研究者们提出了一种名为「合成数据强化学习」(Synthetic Data RL)的通用框架。该框架仅需用户提供一个简单的任务定义,即可全自动地生成高质量合成数据。

来自主题: AI技术研报
9016 点击    2025-06-24 16:13
推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

大语言模型在数学证明中常出现推理漏洞,如跳步或依赖特殊值。斯坦福等高校团队提出IneqMath基准,将不等式证明拆解为可验证的子任务。结果显示,模型的推理正确率远低于答案正确率,暴露出其在数学推理上的缺陷。

来自主题: AI技术研报
9006 点击    2025-06-23 14:41
AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

AI哪怕答案正确,逻辑链却惨不忍睹,奥数级不等式证明成功率不到50%| 斯坦福&伯克利&MIT

大语言模型解决不等式证明问题时,可以给出正确答案,但大多数时候是靠猜。推理过程经不起推敲,逻辑完全崩溃。

来自主题: AI技术研报
6784 点击    2025-06-20 09:48
ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

AI上瘾堪比「吸毒」!MIT最新研究惊人发现:长期依赖大模型,学习能力下降、大脑受损,神经连接减少47%。AI提高效率的说法,或许根本就是误解!

来自主题: AI技术研报
7000 点击    2025-06-19 15:04