
OpenAI被举报:非法限制员工披露AI安全风险
OpenAI被举报:非法限制员工披露AI安全风险OpenAI正式被举报了。
OpenAI正式被举报了。
OpenAI 在人工智能领域的领头羊地位家喻户晓。其产品聊天机器人 ChatGPT 系列、文生图 DALL・E 系列、文生视频 Sora 等都被誉为生产力提升的超强助手
最近一直想约我朋友出去玩,朋友在体制内工作,每次约她,她不是在写报告就是在写报告的路上。我就开始给她安利各种AI写作工具,她一句“我们格式要求很严格,内容必须权威,还要保证信息安全,AI也帮不了我!”,让我陷入沉思……
人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。
人工智能安全已经来到临界点
瑞士苏黎世联邦理工学院的研究者发现,为ChatGPT等聊天机器人提供支持的大型语言模型可以从看似无害的对话中,准确推断出数量惊人的用户个人信息,包括他们的种族、位置、职业等。
在信息爆炸的时代,随着个人存储需求的激增和变化,以及个体对数据隐私和安全性的日益重视,外加AI的技术加持,一种大家也许并不熟知的存储解决方案——NAS迎来了发展机遇。
又一个Anthropic要来了?
今天凌晨,OpenAI官方账号宣布,ChatGPT MAC版本桌面应用程序今日起向公众免费开放使用,但原定于6月底向Plus用户开放的语音功能将推迟一个月上线,据悉这是出于安全因素和用户体验的保证。
近日,清华大学与密歇根大学联合提出的自动驾驶汽车安全性「稀疏度灾难」问题,发表在了顶刊《Nature Communications》上。研究指出,安全攸关事件的稀疏性导致深度学习模型训练难度大增,提出了密集学习、模型泛化改进和车路协同等技术路线以应对挑战。