AI资讯新闻榜单内容搜索-AL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AL
单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败

CoT铸就了o1推理王者。 它开创了一种推理scaling新范式——随着算力增加、更长响应时间,o1性能也随之增长。

来自主题: AI资讯
2500 点击    2024-09-29 16:56
Science子刊封面:500年前拉斐尔怎么作画,AI看一眼就知道

Science子刊封面:500年前拉斐尔怎么作画,AI看一眼就知道

Science子刊封面:500年前拉斐尔怎么作画,AI看一眼就知道

DALL-E、MidJourney等工具的诞生,让我们看到了GenAI高超的「创作技能」。但如果反过来,让AI去分析艺术大师的画作,它们又会有怎样的表现?

来自主题: AI资讯
3613 点击    2024-09-29 15:30
从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

Sutton 等研究人员近期在《Nature》上发表的研究《Loss of Plasticity in Deep Continual Learning》揭示了一个重要发现:在持续学习环境中,标准深度学习方法的表现竟不及浅层网络。研究指出,这一现象的主要原因是 "可塑性损失"(Plasticity Loss):深度神经网络在面对非平稳的训练目标持续更新时,会逐渐丧失从新数据中学习的能力。

来自主题: AI资讯
3938 点击    2024-09-29 14:39
今年我曾跟别人安利过的AI产品:捏Ta和BubblePal

今年我曾跟别人安利过的AI产品:捏Ta和BubblePal

今年我曾跟别人安利过的AI产品:捏Ta和BubblePal

探讨了两款AI产品捏Ta和BubblePal的特点与市场定位。捏Ta专注于垂直人群,满足二次元同人爱好者的创作需求。BubblePal为学龄前儿童提供AI陪伴玩具,丰富亲子互动。

来自主题: AI资讯
4909 点击    2024-09-29 12:41
否认放弃大模型,百度目前并不打算因小失大

否认放弃大模型,百度目前并不打算因小失大

否认放弃大模型,百度目前并不打算因小失大

早早打出“All in AI”的百度,一直都是国内AI赛道的领跑者。

来自主题: AI资讯
4190 点击    2024-09-28 11:14
OpenAI 高管离职潮内幕曝光,员工大批 Altman:爱赚钱,也爱「宫斗」

OpenAI 高管离职潮内幕曝光,员工大批 Altman:爱赚钱,也爱「宫斗」

OpenAI 高管离职潮内幕曝光,员工大批 Altman:爱赚钱,也爱「宫斗」

深陷高管离职风波的 OpenAI 最近点燃了吃瓜群众的热情。 一边是被曝投后估值高达 1500 亿美元,成为全球 AI 独角兽中最靓的崽,一边却是连丢三名技术大咖,在职的创业元老几乎只剩下 Altman 这么一个光棍司令,这两天的 OpenAI 堪称冰火两重天。

来自主题: AI资讯
3769 点击    2024-09-28 11:00
形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

在这种背景下,研究团队提出了一个全新的框架:SubgoalXL,结合了子目标(subgoal)证明策略与专家学习(expert learning)方法,在 Isabelle 中实现了形式化定理证明的性能突破。

来自主题: AI技术研报
5133 点击    2024-09-27 20:57
Layout工程师危,谷歌自动芯片设计AlphaChip问世,开放权重可外部定制

Layout工程师危,谷歌自动芯片设计AlphaChip问世,开放权重可外部定制

Layout工程师危,谷歌自动芯片设计AlphaChip问世,开放权重可外部定制

2020 年,谷歌发表了预印本论文《Chip Placement with Deep Reinforcement Learning》,介绍了其设计芯片布局的新型强化学习方法。后来在 2021 年,谷歌又发表在 Nature 上并开源了出来。

来自主题: AI资讯
5273 点击    2024-09-27 20:46
完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

Google DeepMind的SCoRe方法通过在线多轮强化学习,显著提升了大型语言模型在没有外部输入的情况下的自我修正能力。该方法在MATH和HumanEval基准测试中,分别将自我修正性能提高了15.6%和9.1%。

来自主题: AI技术研报
9933 点击    2024-09-27 19:26