
图灵奖的获奖者们,担心成为 AI 界的「奥本海默」
图灵奖的获奖者们,担心成为 AI 界的「奥本海默」1947 年,艾伦·图灵在一次演讲中提到「我们想要的是一台能够从经验中学习的机器」。
1947 年,艾伦·图灵在一次演讲中提到「我们想要的是一台能够从经验中学习的机器」。
武汉大学等发布了一篇大型视觉语言模型(LVLMs)安全性的综述论文,提出了一个系统性的安全分类框架,涵盖攻击、防御和评估,并对最新模型DeepSeek Janus-Pro进行了安全性测试,发现其在安全性上存在明显短板。
微软宣布将在2027年底前追加投资54亿兰特(约2.97亿美元),扩大其在南非的云计算和人工智能(AI)基础设施,以满足Azure 云服务在该地区不断增长的需求。此外,该公司还计划为5万名南非学员提供云架构、人工智能和网络安全等高需求技能的认证考试费用,以助力本地人才发展。
如日中天的AI,在两会上稳稳占据C位。雷军的“终端标准”、周鸿祎的“安全即服务”、刘庆峰的“算力突围”、齐向东的“纵深防御”……这些大佬们的提案看似分散,实则暗藏一条清晰的主线:
杜克大学计算进化智能中心的最新研究给出了警示性答案。团队提出的 H-CoT(思维链劫持)的攻击方法成功突破包括 OpenAI o1/o3、DeepSeek-R1、Gemini 2.0 Flash Thinking 在内的多款高性能大型推理模型的安全防线:在涉及极端犯罪策略的虚拟教育场景测试中,模型拒绝率从初始的 98% 暴跌至 2% 以下,部分案例中甚至出现从「谨慎劝阻」到「主动献策」的立场反转。
国家网络安全通报中心昨天扔了个"炸弹":大模型工具Ollama有安全漏洞! 相信不少人用ollama来跑DeepSeek、Llama等模型,确实很方便。可通报里说,它默认开放的11434端口跟没锁的大门似的,谁都能进。今天就和你就说一下 这到底是怎么回事?顺便手把手教你几招,保住你的算力和隐私。
谷歌DeepMind 研究科学家 Nicholas Carlini,一位机器学习和计算机安全领域的大牛。以最贴近现实实用的角度,分享了他对大模型的看法,以及自己对大模型应用的50个案例。
欧盟AI办公室将于2025年4月28日在布鲁塞尔举办一场重要的线下研讨会,旨在探讨通用目的人工智能(GPAI)系统性风险评估的最佳实践。本次研讨会是欧盟AI治理框架中的一个重要里程碑,反映了欧盟在AI安全、透明度和合规性方面的持续努力。
大语言模型(LLMs)在当今的自然语言处理领域扮演着越来越重要的角色,但其安全性问题也引发了广泛关注。
只要一句话,就能让DeepSeek陷入无限思考,根本停不下来?