
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。
大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。
4月份,李飞飞教授领先编制的《2025年人工智能指数报告》提供的数据显示,2024年全年具有特殊影响力的模型(Notable AI models)当中,排名前5的几乎都来自美国、中国的科技巨头。
让推理模型针对风险指令生成了安全输出,表象下藏着认知危机: 即使生成合规答案,超60%的案例中模型并未真正理解风险。
仅用6小时,Claude 4就让研究者了解了如何制造神经毒气——这不是小说情节,而是真实事件。更令人担忧的是,Anthropic自身也无法完全评估风险。这是否意味着这家AI巨头的「安全人设」正在崩塌?
马斯克xAI联合Scale AI训练语音模型,提升自然对话与安全管控。6月6日消息,据媒体获取的文件显示,埃隆·马斯克旗下的人工智能公司xAI正利用一系列问题训练其AI语音模型
相信大家已经听过很多 AI 在生命科学领域的一次次革命性进展,甚至 2024 年的诺贝尔化学奖都颁给了计算生物学领域的科学家们。
图灵奖得主Yoshua Bengio重磅官宣创办非营利机构LawZero,致力研发「设计即安全」的AI系统,以对抗AI军备竞赛带来的风险。主张构建不具行动性、以理解世界为目标的可信AI。
全球AI原生企业围绕OpenAI、Anthropic和谷歌三大生态阵营发展,形成开放多元、安全导向和技术闭环的差异化格局。企业通过多模型接入、自研模型及垂直深耕等策略竞争,生态构建聚焦开发者工具、行业渗透和价格策略,当前行业仍处动态演变阶段,尚未形成最终格局。
首个专为ALLMs(音频大语言模型)设计的多维度可信度评估基准来了。
AI编程工具正引发技术革命,Cursor等产品通过自然语言交互颠覆传统编程模式,显著提升开发效率。全球创业公司竞逐AI Coding赛道,但技术成熟度、商业化路径仍面临挑战。中国企业在安全定制、垂直领域探索机会,行业期待通过代码平权重构开发生态,推动AGI实现进程。