AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
Agent 初学者指南:揭开 AI Agents 的面纱

Agent 初学者指南:揭开 AI Agents 的面纱

Agent 初学者指南:揭开 AI Agents 的面纱

最近从由大型语言模型(LLM)驱动的聊天机器人向如今该领域所定义的 Agent 系统或 Agentic AI 的转变,可以用一句老话来概括:“少说话,多做事。”

来自主题: AI资讯
6297 点击    2024-12-07 10:44
NeurIPS 2024 | 哈工深提出新型智能体Optimus-1,横扫Minecraft长序列任务

NeurIPS 2024 | 哈工深提出新型智能体Optimus-1,横扫Minecraft长序列任务

NeurIPS 2024 | 哈工深提出新型智能体Optimus-1,横扫Minecraft长序列任务

在 Minecraft 中构造一个能完成各种长序列任务的智能体,颇有挑战性。现有的工作利用大语言模型 / 多模态大模型生成行动规划,以提升智能体执行长序列任务的能力。

来自主题: AI技术研报
5751 点击    2024-12-06 17:58
游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

游戏bug帮大模型学物理!准确率超GPT4o近4个百分点

融合物理知识的大型视频语言模型PhysVLM,开源了! 它不仅在 PhysGame 基准上展现出最先进的性能,还在通用视频理解基准上(Video-MME, VCG)表现出领先的性能。

来自主题: AI技术研报
7202 点击    2024-12-06 17:45
离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

离职OpenAI后Lilian Weng博客首发!深扒RL训练漏洞,业内狂赞

Lilian Weng离职OpenAI后首篇博客发布!文章深入讨论了大模型强化学习中的奖励欺骗问题。随着语言模型在许多任务上的泛化能力不断提升,以及RLHF逐渐成为对齐训练的默认方法,奖励欺骗在语言模型的RL训练中已经成为一个关键的实践性难题。

来自主题: AI资讯
7135 点击    2024-12-06 09:54
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。

来自主题: AI技术研报
8408 点击    2024-12-02 14:27
Claude Artifacts的开源实现,Llama3驱动的AI程序员,瞬间做一个软件还能实时渲染。

Claude Artifacts的开源实现,Llama3驱动的AI程序员,瞬间做一个软件还能实时渲染。

Claude Artifacts的开源实现,Llama3驱动的AI程序员,瞬间做一个软件还能实时渲染。

Llamacoder是Claude Artifacts的开源实现。 最大的亮点就是,左侧AI写代码,右侧实时渲染。 之前给大家推荐过一个基于Claude做的,Llamacoder是用了Meta 的 Llama 3.1 405B 作为底层语言模型。

来自主题: AI资讯
6061 点击    2024-12-01 11:55
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
8321 点击    2024-11-30 16:51
多模态慢思考:分解原子步骤以解决复杂数学推理

多模态慢思考:分解原子步骤以解决复杂数学推理

多模态慢思考:分解原子步骤以解决复杂数学推理

AtomThink 是一个包括 CoT 注释引擎、原子步骤指令微调、政策搜索推理的全流程框架,旨在通过将 “慢思考 “能力融入多模态大语言模型来解决高阶数学推理问题。量化结果显示其在两个基准数学测试中取得了大幅的性能增长,并能够轻易迁移至不同的多模态大模型当中。

来自主题: AI技术研报
5513 点击    2024-11-30 16:45
反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

当前,生成式AI正席卷整个社会,大语言模型(LLMs)在文本(ChatGPT)和图像(DALL-E)生成方面取得了令人惊叹的成就,仅仅依赖零星几个提示词,它们就能生成超出预期的内容

来自主题: AI技术研报
5763 点击    2024-11-30 10:21