
显著超越SFT,o1/DeepSeek-R1背后秘诀也能用于多模态大模型了
显著超越SFT,o1/DeepSeek-R1背后秘诀也能用于多模态大模型了o1/DeepSeek-R1背后秘诀也能扩展到多模态了!
o1/DeepSeek-R1背后秘诀也能扩展到多模态了!
去年,Sam Altman曾做过一个预测: 有了AI,我们很快就会看到第一家估值10亿美元,但只有一个人的AI公司。
通过针对视觉的细分类、目标检测等任务设计对应的规则奖励,Visual-RFT 打破了 DeepSeek-R1 方法局限于文本、数学推理、代码等少数领域的认知,为视觉语言模型的训练开辟了全新路径!
大模型的快速及持续发展,离不开对模型所有权及数据隐私的保护。
最近,谷歌与瑞士邮政下属的 Digitalidag 联合举办了一场提示词比赛,选手们的任务是编写提示词(指令),比如让 AI 助手制定一份详细的学习计划。Joakim Jardenberg 获得了本次比赛的亚军,Wrap News 对其进行了一场专访,就提示词的创作进行了交流。
Hugging Face发布了「超大规模实战手册」,在512个GPU上进行超过4000个scaling实验。联创兼CEO Clement对此感到十分自豪。
这份提示词有很多哲学性思考,很多表达让我看到背后的设计者把claude当成一个人去设计。 我猜,应该是Amanda Askell(Anthropic负责alignment和character design,是学哲学的一位女生,也是我的榜样) 主要设计的。
3月1日,潞晨科技官微发布了两则消息。先是宣布:“尊敬的用户,潞晨云将在一周后停止提供DeepSeek API服务,请尽快用完您的余额。如果没用完,我们全额退款。”后又发布消息:“感谢网友的热心提醒,Colossal-AI此前发布对DeepSeek-R1(671B)模型的LoRA微调,在参数加载过程中因参数名称不匹配的Bug导致Loss异常,已在GitHub线上修复。”
DeepSeek和xAI相继用R1和Grok-3证明:预训练Scaling Law不是OpenAI的护城河。将来95%的算力将用在推理,而不是现在的训练和推理各50%。OpenAI前途不明,生死难料!
AI 硬件——一个共识大于非共识的投资主题,尤其是 CES 之后。相比单纯的模型或者软件服务,硬件的确存在新的适合创业者发挥的空间和机会。