AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
智能体模拟《西部世界》一样的社会,复旦大学等出了篇系统综述

智能体模拟《西部世界》一样的社会,复旦大学等出了篇系统综述

智能体模拟《西部世界》一样的社会,复旦大学等出了篇系统综述

目前,这一领域发展迅速,但现有综述多聚焦于单智能体的架构、特定能力或多智能体系统的某些方面,尚缺乏从个体到社会模拟的系统性回顾。因此,本文试图填补这一空白,为该领域提供全面的概述。

来自主题: AI技术研报
8320 点击    2024-12-06 17:55
游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

融合物理知识的大型视频语言模型PhysVLM,开源了! 它不仅在 PhysGame 基准上展现出最先进的性能,还在通用视频理解基准上(Video-MME, VCG)表现出领先的性能。

来自主题: AI技术研报
8844 点击    2024-12-06 17:45
Auto-Demo提示技术:批处理提示的突破性创新 | 香港理工大学最新

Auto-Demo提示技术:批处理提示的突破性创新 | 香港理工大学最新

Auto-Demo提示技术:批处理提示的突破性创新 | 香港理工大学最新

在AI迅速发展的技术背景下,如何更高效地利用模型资源成为了一个关键问题。批处理提示(Batch Prompting)作为一种同时处理多个相似查询的技术,虽然在提高计算效率方面显示出巨大潜力,但同时也面临着性能下降的挑战。香港理工大学的研究团队提出的Auto-Demo提示技术,为这一问题带来了突破性的解决方案。

来自主题: AI技术研报
6923 点击    2024-12-06 14:32
Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Bengio、LeCun再喊话:AGI推理不需要先学语言,LLM路走窄了?

Yoshua Bengio最近在《金融时报》的专栏文章中表示,「AI可以在说话之前学会思考」,实现内部的深思熟虑将成为AGI道路的里程碑。无独有偶,就在几个月前,Yann LeCun也多次表达过类似的观点。

来自主题: AI资讯
8506 点击    2024-12-06 10:00
离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

Lilian Weng离职OpenAI后首篇博客发布!文章深入讨论了大模型强化学习中的奖励欺骗问题。随着语言模型在许多任务上的泛化能力不断提升,以及RLHF逐渐成为对齐训练的默认方法,奖励欺骗在语言模型的RL训练中已经成为一个关键的实践性难题。

来自主题: AI资讯
8755 点击    2024-12-06 09:54
推动大模型自我进化,北理工推出「流星雨计划」

推动大模型自我进化,北理工推出「流星雨计划」

推动大模型自我进化,北理工推出「流星雨计划」

在人类个体能力提升过程中,当其具备了基本的技能之后,会自主地与环境和自身频繁交互,并从中获取经验予以改进。大模型自我进化研究之所以重要,正是源于该思想,并且更倾向于探究大模型自身能力的深度挖掘和扩展。

来自主题: AI技术研报
7526 点击    2024-12-05 11:54
NeurIPS Spotlight|从分类到生成:无训练的可控扩散生成

NeurIPS Spotlight|从分类到生成:无训练的可控扩散生成

NeurIPS Spotlight|从分类到生成:无训练的可控扩散生成

近年来,扩散模型(Diffusion Models)已成为生成模型领域的研究前沿,它们在图像生成、视频生成、分子设计、音频生成等众多领域展现出强大的能力。

来自主题: AI技术研报
7514 点击    2024-12-05 11:49
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
7993 点击    2024-12-05 11:27
被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事

被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事

被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事

几个小时前,著名 AI 研究者、OpenAI 创始成员之一 Andrej Karpathy 发布了一篇备受关注的长推文,其中分享了注意力机制背后一些或许少有人知的故事。

来自主题: AI技术研报
8984 点击    2024-12-04 16:39