AI资讯新闻榜单内容搜索-RL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: RL
AI教母李飞飞获融资,3个月干出一个AI独角兽

AI教母李飞飞获融资,3个月干出一个AI独角兽

AI教母李飞飞获融资,3个月干出一个AI独角兽

World Labs被曝已完成2轮融资,最新一轮融资金额约1亿美元。

来自主题: AI资讯
8294 点击    2024-07-18 13:22
从RLHF到DPO再到TDPO,大模型对齐算法已经是「token-level」

从RLHF到DPO再到TDPO,大模型对齐算法已经是「token-level」

从RLHF到DPO再到TDPO,大模型对齐算法已经是「token-level」

在人工智能领域的发展过程中,对大语言模型(LLM)的控制与指导始终是核心挑战之一,旨在确保这些模型既强大又安全地服务于人类社会。早期的努力集中于通过人类反馈的强化学习方法(RLHF)来管理这些模型,成效显著,标志着向更加人性化 AI 迈出的关键一步。

来自主题: AI技术研报
3622 点击    2024-06-23 19:39
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单

这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单

这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单

随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。

来自主题: AI技术研报
9143 点击    2024-06-07 10:36
陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

比斯坦福DPO(直接偏好优化)更简单的RLHF平替来了,来自陈丹琦团队。 该方式在多项测试中性能都远超DPO,还能让8B模型战胜Claude 3的超大杯Opus。 而且与DPO相比,训练时间和GPU消耗也都大幅减少。

来自主题: AI资讯
8327 点击    2024-05-27 16:39
仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

基于人类反馈的强化学习 (RLHF) 使得大语言模型的输出能够更加符合人类的目标、期望与需求,是提升许多闭源语言模型 Chat-GPT, Claude, Gemini 表现的核心方法之一。

来自主题: AI资讯
5279 点击    2024-05-18 11:18
「用 AI 训 AI」这事靠谱吗?

「用 AI 训 AI」这事靠谱吗?

「用 AI 训 AI」这事靠谱吗?

在大语言模型领域,微调是改进模型的重要步骤。伴随开源模型数量日益增多,针对LLM的微调方法同样在推陈出新。

来自主题: AI技术研报
8929 点击    2024-05-01 19:31
首届AI方程式大赛,8圈开了一个小时

首届AI方程式大赛,8圈开了一个小时

首届AI方程式大赛,8圈开了一个小时

在阿布扎比的 F1 赛道上,8 辆赛车使用相同的轮胎,相同的发动机,完全一样的车身,唯一不同之处就是自动驾驶代码。

来自主题: AI资讯
7983 点击    2024-04-29 20:39