AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
7061 点击    2025-04-14 14:39
中科大、中兴提出新后训练范式:小尺寸多模态模型,成功复现R1推理

中科大、中兴提出新后训练范式:小尺寸多模态模型,成功复现R1推理

中科大、中兴提出新后训练范式:小尺寸多模态模型,成功复现R1推理

近年来,随着大型语言模型(LLMs)的快速发展,多模态理解领域取得了前所未有的进步。像 OpenAI、InternVL 和 Qwen-VL 系列这样的最先进的视觉-语言模型(VLMs),在处理复杂的视觉-文本任务时展现了卓越的能力。

来自主题: AI技术研报
3753 点击    2025-04-14 13:57
全球首个!中科院推出合成生物AI大语言模型,网页版已免费上线!

全球首个!中科院推出合成生物AI大语言模型,网页版已免费上线!

全球首个!中科院推出合成生物AI大语言模型,网页版已免费上线!

中国科学院深圳先进技术研究院娄春波团队与北京大学定量生物学中心钱珑团队成功推出一款生物制造大语言模型SYMPLEX。SYMPLEX是全球首个面向合成生物学元件挖掘与生物制造应用的大语言模型。

来自主题: AI资讯
6987 点击    2025-04-13 21:07
7B小模型写好学术论文,新框架告别AI引用幻觉,实测100%学生认可引用质量

7B小模型写好学术论文,新框架告别AI引用幻觉,实测100%学生认可引用质量

7B小模型写好学术论文,新框架告别AI引用幻觉,实测100%学生认可引用质量

学术写作通常需要花费大量精力查询文献引用,而以ChatGPT、GPT-4等为代表的通用大语言模型(LLM)虽然能够生成流畅文本,但经常出现“引用幻觉”(Citation Hallucination),即模型凭空捏造文献引用。这种现象严重影响了学术论文的可信度与专业性。

来自主题: AI技术研报
7031 点击    2025-04-11 10:20
用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

推理增强型大语言模型LRM(如OpenAI的o1、DeepSeek R1和Google的Flash Thinking)通过在生成最终答案前显式生成中间推理步骤,在复杂问题解决方面展现了卓越性能。然而,对这类模型的控制仍主要依赖于传统的输入级操作,如提示工程(Prompt Engineering)等方法,而你可能已经发现这些方法存在局限性。

来自主题: AI技术研报
1859 点击    2025-04-08 08:50
LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

来自UIUC等大学的华人团队,从LLM的基础机制出发,揭示、预测并减少幻觉!通过实验,研究人员揭示了LLM的知识如何相互影响,总结了幻觉的对数线性定律。更可预测、更可控的语言模型正在成为现实。

来自主题: AI技术研报
7024 点击    2025-04-07 14:55