AI模型守法率提升11%,港科大首次用法案构建安全benchmark
AI模型守法率提升11%,港科大首次用法案构建安全benchmark香港科技大学KnowComp实验室提出基于《欧盟人工智能法案》和《GDPR》的LLM安全新范式,构建合规测试基准并训练出性能优异的推理模型,为大语言模型安全管理提供了新方向。
香港科技大学KnowComp实验室提出基于《欧盟人工智能法案》和《GDPR》的LLM安全新范式,构建合规测试基准并训练出性能优异的推理模型,为大语言模型安全管理提供了新方向。
Obot MCP Gateway是他们解决方案的核心,这是一个开源控制平面,为IT团队提供了对MCP部署前所未有的可见性和控制能力。从架构上看,这个网关采用了代理模式,所有与MCP服务器的通信都会通过网关进行代理,这为审计、日志记录和应用安全策略提供了单一控制点。这种设计消除了影子AI的可能性,确保了合规性。
在工业级大语言模型(LLM)应用中,动态适配任务与保留既有能力的 “自进化” 需求日益迫切。真实场景中,不同领域语言模式差异显著,LLM 需在学习新场景合规规则的同时,不丢失旧场景的判断能力。这正是大模型自进化核心诉求,即 “自主优化跨任务知识整合,适应动态环境而无需大量外部干预”。
近日,Agent 领域再次传来新进展,谷歌宣布推出 Agent 支付协议 ——AP2(Agent Payments Protocol ),这是一种开放的共享协议,为 Agent 和商家之间安全合规的交易提供通用语言。
AI 编程工具的竞争已经进入深水区:不仅各家产品在补全速度、上下文感知、智能体协作上不断拉锯,在背后的模型层面,博弈同样激烈,甚至出现了全球范围的“准入门槛”和“封锁线”。这意味着工具之争早已不是单纯的产品对比,而是与模型生态、合规和市场战略深度绑定。
在大模型时代,机器学习资产(如模型、数据和许可证)数量激增,但大多缺乏规范管理,严重阻碍了AI应用效率。研究人员将在VLDB 2025系统介绍如何整理、发现和利用这些资产,使其更易查找、复用且符合规范,从而提升开发效率与协作质量。
每个快速发展的公司都逃不开合规噩梦,繁琐、耗时、烧钱。两个MIT辍学生用AI智能体向这个痛点宣战,不仅解放了无数打工人,更让顶级资本心甘情愿地送上支票。
当我看到TinyFish刚刚完成4700万美元A轮融资的消息时,我意识到这不仅是一轮融资,而是一个全新时代的开始——企业级Web Agent时代。我一直在思考AI agent的商业化应用,但TinyFish的方法让我看到了一个更加现实且具有颠覆性的方向:让AI agent不是简单地模拟人类浏览网页,而是以企业级的规模、可靠性和合规性要求来执行复杂的业务工作流程。
在移动计算时代,将高效的自然语言处理模型部署到资源受限的边缘设备上面临巨大挑战。这些场景通常要求严格的隐私合规、实时响应能力和多任务处理功能。
以前创投圈有句名言,叫VC/PE的尽头是放贷。这背后的逻辑非常朴素:无论任何产业都需要金融支持,而贷款是最直接、最明码标价的金融工具;与此同时,贷款又是金融服务中最依赖人力、最陈旧、最碎片化的领域之一,目前大多数提供贷款的金融机构仍然依赖孤立的系统、耗费大量人力的流程以及被动的合规方法。