AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
达摩院推出多智能体框架ReasonMed,打造医学推理数据生成新范式

达摩院推出多智能体框架ReasonMed,打造医学推理数据生成新范式

达摩院推出多智能体框架ReasonMed,打造医学推理数据生成新范式

在人工智能领域,推理语言模型(RLM)虽然在数学与编程任务中已展现出色性能,但在像医学这样高度依赖专业知识的场景中,一个亟待回答的问题是:复杂的多步推理会帮助模型提升医学问答能力吗?要回答这个问题,需要构建足够高质量的医学推理数据,当前医学推理数据的构建存在以下挑战:

来自主题: AI技术研报
8866 点击    2025-11-03 14:50
大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

多模态大模型(MLLM)在自然图像上已取得显著进展,但当问题落在图表、几何草图、科研绘图等结构化图像上时,细小的感知误差会迅速放大为推理偏差。

来自主题: AI技术研报
6680 点击    2025-11-03 14:20
给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

随着 AI 技术的发展,大语言模型已经越来越多地应用于人们的日常生活中。需要了解的是,现阶段大语言模型面临版权保护的实际需求:

来自主题: AI技术研报
8386 点击    2025-11-03 14:19
OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas等AI浏览器暴露Web Agent安全风险!南洋理工破解底层机制

OpenAI Atlas、Perplexity Comet等AI浏览器的推出,虽提升了网页自动化效率,却也使智能爬虫威胁加剧。南洋理工大学团队研发的WebCloak,创新性地混淆网页结构与语义,打破爬虫技术依赖,为数据安全筑起轻量高效防线,助力抵御新型智能攻击,守护网络安全。

来自主题: AI技术研报
6005 点击    2025-11-03 14:19
你刷抖音小红书不会变笨,但你的 AI 会

你刷抖音小红书不会变笨,但你的 AI 会

你刷抖音小红书不会变笨,但你的 AI 会

好消息:AI 越来越好用了。 坏消息:越用它越笨。

来自主题: AI技术研报
8713 点击    2025-11-03 10:34
综述238篇遥感微调!清华院士团队指出9大方向 | CVMJ

综述238篇遥感微调!清华院士团队指出9大方向 | CVMJ

综述238篇遥感微调!清华院士团队指出9大方向 | CVMJ

在大数据和大模型推动下,微调技术凭借成本低、效率高优势,成为应对小样本、长尾目标等复杂场景的利器。从早期全参数微调到参数高效微调(PEFT),再到如今融合多种PEFT技术的混合微调,遥感微调技术不断进化。清华大学等团队在CVMJ期刊上系统梳理了技术脉络,并指出了九个潜在研究方向,助力遥感技术在农业监测、天气预报等关键领域发挥更大作用。

来自主题: AI资讯
8455 点击    2025-11-03 10:31
FG-CLIP 2: 为细粒度跨模态理解而生的下一代VLM,8大类29项任务双语性能全球第一

FG-CLIP 2: 为细粒度跨模态理解而生的下一代VLM,8大类29项任务双语性能全球第一

FG-CLIP 2: 为细粒度跨模态理解而生的下一代VLM,8大类29项任务双语性能全球第一

在 AI 多模态的发展历程中,OpenAI 的 CLIP 让机器第一次具备了“看懂”图像与文字的能力,为跨模态学习奠定了基础。如今,来自 360 人工智能研究院冷大炜团队的 FG-CLIP 2 正式发布并开源,在中英文双语任务上全面超越 MetaCLIP 2 与 SigLIP 2,并通过新的细粒度对齐范式,补足了第一代模型在细节理解上的不足。

来自主题: AI技术研报
6228 点击    2025-11-03 09:52
「上下文工程」 已经30岁了,而你可能刚知道它

「上下文工程」 已经30岁了,而你可能刚知道它

「上下文工程」 已经30岁了,而你可能刚知道它

AI时代,人不再只是「社会关系的总和」,而是由无数数据、记录和互动的上下文构成的。

来自主题: AI技术研报
10131 点击    2025-11-03 09:50
RAE的终极形态?北大&阿里提出UniLIP: 将CLIP拓展到重建、生成和编辑

RAE的终极形态?北大&阿里提出UniLIP: 将CLIP拓展到重建、生成和编辑

RAE的终极形态?北大&阿里提出UniLIP: 将CLIP拓展到重建、生成和编辑

统一多模态模型要求视觉表征必须兼顾语义(理解)和细节(生成 / 编辑)。早期 VAE 因语义不足而理解受限。近期基于 CLIP 的统一编码器,面临理解与重建的权衡:直接量化 CLIP 特征会损害理解性能;而为冻结的 CLIP 训练解码器,又因特征细节缺失而无法精确重建。例如,RAE 使用冻结的 DINOv2 重建,PSNR 仅 19.23。

来自主题: AI技术研报
7389 点击    2025-11-03 09:50