AI资讯新闻榜单内容搜索-伯克利

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 伯克利
用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

当你要求AI"帮我订一张去纽约的机票"时,它需要理解目标、分解步骤、适应变化,这个过程远比看起来复杂。UC伯克利的研究者们带来了振奋人心的新发现:通过将任务规划和执行分离的PLAN-AND-ACT框架,他们成功将智能体在长期任务中的规划能力提升了54%,创造了新的技术突破。

来自主题: AI技术研报
5261 点击    2025-03-21 14:37
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

大模型同样的上下文窗口,只需一半内存就能实现,而且精度无损? 前苹果ASIC架构师Nils Graef,和一名UC伯克利在读本科生一起提出了新的注意力机制Slim Attention。

来自主题: AI资讯
5903 点击    2025-03-17 19:52
生物版 Deepseek 来了!史上最大开源 AI 生物学模型,400 亿参数引爆学界

生物版 Deepseek 来了!史上最大开源 AI 生物学模型,400 亿参数引爆学界

生物版 Deepseek 来了!史上最大开源 AI 生物学模型,400 亿参数引爆学界

生物学大模型又迎新里程碑!2025 年 2 月 19 日,来自 Arc Institute、英伟达、斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的科学家们,联合发布了生物学大模型 Evo2。

来自主题: AI资讯
7925 点击    2025-02-22 11:54
直逼DeepSeek-R1-32B,碾压李飞飞s1!UC伯克利等开源全新SOTA推理模型

直逼DeepSeek-R1-32B,碾压李飞飞s1!UC伯克利等开源全新SOTA推理模型

直逼DeepSeek-R1-32B,碾压李飞飞s1!UC伯克利等开源全新SOTA推理模型

近日,斯坦福、UC伯克利等多机构联手发布了开源推理新SOTA——OpenThinker-32B,性能直逼DeepSeek-R1-32B。其成功秘诀在于数据规模化、严格验证和模型扩展。

来自主题: AI技术研报
6162 点击    2025-02-14 11:09
4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

只用4500美元成本,就能成功复现DeepSeek?就在刚刚,UC伯克利团队只用简单的RL微调,就训出了DeepScaleR-1.5B-Preview,15亿参数模型直接吊打o1-preview,震撼业内。

来自主题: AI资讯
7062 点击    2025-02-11 15:26
UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

基于一段文本提问时,人类和大模型会基于截然不同的思维模式给出问题。大模型喜欢那些需要详细解释才能回答的问题,而人类倾向于提出更直接、基于事实的问题。

来自主题: AI技术研报
4744 点击    2025-01-29 13:32
六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

研究人员首次探讨了大型语言模型(LLMs)在问题生成任务中的表现,与人类生成的问题进行了多维度对比,结果发现LLMs倾向于生成需要较长描述性答案的问题,且在问题生成中对上下文的关注更均衡。

来自主题: AI技术研报
6999 点击    2025-01-27 13:26
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

就在刚刚,网上已经出现了一波复现DeepSeek的狂潮。UC伯克利、港科大、HuggingFace等纷纷成功复现,只用强化学习,没有监督微调,30美元就能见证「啊哈时刻」!全球AI大模型,或许正在进入下一分水岭。

来自主题: AI资讯
7842 点击    2025-01-26 13:30
UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。

来自主题: AI技术研报
7215 点击    2025-01-23 13:19