
自称本世纪最重要的 AI 网站,满屏都藏着一个词:bullsh*t
自称本世纪最重要的 AI 网站,满屏都藏着一个词:bullsh*t打开一个看似由哈佛、全球 AI 安全研究机构背书的网站,你会以为自己进入了一个拯救人类的严肃计划。 结果……你在这个页面上多停留了十几秒,页面背景悄悄浮现出一个单词:「bullsh*t」。 仔细看动图
打开一个看似由哈佛、全球 AI 安全研究机构背书的网站,你会以为自己进入了一个拯救人类的严肃计划。 结果……你在这个页面上多停留了十几秒,页面背景悄悄浮现出一个单词:「bullsh*t」。 仔细看动图
让LMM作为Judge,从对模型的性能评估到数据标注再到模型的训练和对齐流程,让AI来评判AI,这种模式几乎已经是当前学术界和工业界的常态。
如今,Facebook与Instagram已正式上线Reels短视频的音频翻译功能。该功能依托AI技术,可直接将视频中的人物音频翻译成不同语种,不仅支持双人对话翻译,还能实现嘴型对齐,并根据对话双方的原始音色,合成声线高度相似的翻译音轨。
一份全新GPT-5系统提示词,在GitHub中悄然泄露,足足有17803 token。内容设计超精细,用户对齐、拟人风格、输出质量等全面覆盖。
近期多项研究 [1-2] 表明,即使是经过安全对齐的大语言模型,也可能在正常开发场景中无意间生成存在漏洞的代码,为后续被利用埋下隐患;而在恶意用户手中,这类模型还能显著加速恶意软件的构建与迭代,降低攻击门槛、缩短开发周期。
强化学习(RL)是锻造当今顶尖大模型(如 OpenAI o 系列、DeepSeek-R1、Gemini 2.5、Grok 4、GPT-5)推理能力与对齐的核心 “武器”,但它也像一把双刃剑,常常导致模型行为脆弱、风格突变,甚至出现 “欺骗性对齐”、“失控” 等危险倾向。
GPT-5,终于亮出真容! 最新实测,由奥特曼本人带来,迅速引发大量围观。
最近整个 AI 圈的目光似乎都集中在 GPT-5 上,相关爆料满天飞,但模型迟迟不见踪影。昨天我们报道了 The Information 扒出的 GPT-5 长文内幕,今天奥特曼似乎也坐不住,发了推文表示「惊喜很多,值得等待」。
大语言模型(LLM)已经在多项自然语言处理任务中展现出卓越能力,但其潜在安全风险仍然是阻碍规模化落地的关键瓶颈。目前社区用于安全对齐的公开数据集,往往偏重于「词汇多样性」,即让同一种风险指令尽可能用不同的表达方式出现,却很少系统考虑指令背后的「恶意意图多样性」以及「越狱策略多样性」。
大模型伦理竟然无法对齐?