
苹果一篇论文把大模型圈子得罪了,“踩着”OpenAI、Meta大模型上位,Gary Marcus:早就说大模型不会推理
苹果一篇论文把大模型圈子得罪了,“踩着”OpenAI、Meta大模型上位,Gary Marcus:早就说大模型不会推理苹果的研究人员对一系列领先语言模型,包括来自 OpenAI、Meta 和其他知名厂商的模型进行研究测试。
苹果的研究人员对一系列领先语言模型,包括来自 OpenAI、Meta 和其他知名厂商的模型进行研究测试。
家人们,一觉醒来,又吃了一则新瓜:
OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型,而是开始针对推理过程进行优化了。今天我们介绍的这项来自 Meta FAIR 田渊栋团队的研究也是如此,其从人类认知理论中获得了灵感,提出了一种新型 Transformer 架构:Dualformer。
就在刚刚,OpenAI 53页报告发现,你的名字会决定ChatGPT的回答。在少数情况下,不同性别、种族、民族背景的用户,会得到「量身定制」的回答,充满了AI的刻板印象。比如同样让ChatGPT起视频标题,男生会被建议简单生活,而女生则被建议做一顿晚餐。
AI对待每个人类都一视同仁吗? 现在OpenAI用53页的新论文揭示:ChatGPT真的会看人下菜碟。 根据用户的名字就自动推断出性别、种族等身份特征,并重复训练数据中的社会偏见。
AI人才大震荡!17位高管“解雇”CEO,一场轰动科技圈的换将门
微软 10 年「老兵」选择离开。
微软失去了一位人工智能专家,而 OpenAI 获得了一位,前者的生成 AI 研究副总裁塞巴斯蒂安·布贝克离开了微软,加入了后者。《信息》首次报道了这一消息,路透社也确认了微软的离职情况。
随着对现有互联网数据的预训练逐渐成熟,研究的探索空间正由预训练转向后期训练(Post-training),OpenAI o1 的发布正彰显了这一点。
o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?