AI资讯新闻榜单内容搜索-安全

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 安全
AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

复旦新研究揭示了AI系统自我复制的突破性进展,表明当前的LLM已具备在没有人类干预的情况下自我克隆的能力。这不仅是AI超越人类的一大步,也为「流氓AI」埋下了隐患,带来前所未有的安全风险。

来自主题: AI技术研报
7026 点击    2025-02-12 12:05
阿联酋AI部长对谈李彦宏:自动驾驶比人开车安全 10 倍!萝卜快跑出险率仅为人类驾驶员 1/14

阿联酋AI部长对谈李彦宏:自动驾驶比人开车安全 10 倍!萝卜快跑出险率仅为人类驾驶员 1/14

阿联酋AI部长对谈李彦宏:自动驾驶比人开车安全 10 倍!萝卜快跑出险率仅为人类驾驶员 1/14

2月11日,在阿联酋迪拜举办的World Governments Summit 2025峰会上,百度创始人李彦宏与阿联酋AI部长奥马尔·苏丹·奥拉马(Omar Sultan AI Olama)对谈时表示,尽管技术进步、成本降低,但仍需持续投入AI基础设施,以确保处于技术创新的最前沿。

来自主题: AI资讯
8259 点击    2025-02-12 11:53
Perplexity CEO 最新采访:DeepSeek 美国本土化与合并 TikTok US

Perplexity CEO 最新采访:DeepSeek 美国本土化与合并 TikTok US

Perplexity CEO 最新采访:DeepSeek 美国本土化与合并 TikTok US

Perplexity CEO Arvin Srinivas 在今天 CNBC 采访中谈到了 Perplexity 与 DeepSeek 的整合,以及作为美国初创公司如何确保用户数据安全、避免审查问题,并提出了其与 TikTok 合并的战略构想。

来自主题: AI资讯
9288 点击    2025-02-09 09:10
针对DeepSeek,澳大利亚发禁令

针对DeepSeek,澳大利亚发禁令

针对DeepSeek,澳大利亚发禁令

又双标?据路透社最新消息,澳大利亚政府以所谓“担心安全风险”为由,周二宣布已禁止在所有政府设备中使用DeepSeek。

来自主题: AI资讯
10557 点击    2025-02-07 00:17
大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

大模型会组合关系推理吗?打开黑盒,窥探Transformer脑回路

本文作者为北京邮电大学网络空间安全学院硕士研究生倪睿康,指导老师为肖达副教授。主要研究方向包括自然语言处理、模型可解释性。该工作为倪睿康在彩云科技实习期间完成。联系邮箱:ni@bupt.edu.cn, xiaoda99@bupt.edu.cn

来自主题: AI技术研报
5518 点击    2025-02-06 15:30
DeepSeek无视电脑配置本地部署私人知识库,复刻自己解决问题的思维

DeepSeek无视电脑配置本地部署私人知识库,复刻自己解决问题的思维

DeepSeek无视电脑配置本地部署私人知识库,复刻自己解决问题的思维

能够给读者惊喜,一直都是我的特色。我探讨出来的解决方案,第一无需理会刚才说到的硬件问题、终端问题和容量问题,第二全程网页操作与客户端操作,第三完全免费且快速安全。

来自主题: AI技术研报
9255 点击    2025-02-05 13:33
DeepSeek又被攻击,本地化部署是否安全?

DeepSeek又被攻击,本地化部署是否安全?

DeepSeek又被攻击,本地化部署是否安全?

在今年春节期间,最近国产的推理大模型DeepSeek R1很火,我们经过实测,推理效果非常棒,可以说是阶段性的技术突破。

来自主题: AI资讯
7365 点击    2025-02-05 12:04
从2025年春节DeepSeek官网遭黑客攻击说起--AI狂飙暗流与安全对齐

从2025年春节DeepSeek官网遭黑客攻击说起--AI狂飙暗流与安全对齐

从2025年春节DeepSeek官网遭黑客攻击说起--AI狂飙暗流与安全对齐

2025年春节,正当千万人沉浸在团圆的喜悦中,DeepSeek,这家被誉为“中国版OpenAI”的AI明星企业,却迎来了有史以来最严重的安全危机:攻击规模:黑客发起了史无前例的3.2Tbps DDoS攻击,相当于每秒钟传输130部4K电影;

来自主题: AI技术研报
14972 点击    2025-02-01 16:02