AI资讯新闻榜单内容搜索-浙大

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 浙大
浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

浙大联手字节:开源大规模指令跟随视频编辑数据集OpenVE-3M

作者提出了一个大规模、高质量、多类别的指令跟随的视频编辑数据集 OpenVE-3M,共包含 3M 样本对,分为空间对齐和非空间对齐 2 大类别共 8 小类别。

来自主题: AI技术研报
7615 点击    2025-12-17 09:22
专治大模型不懂行:浙大团队CatCoder解决AI编程水土不服难题

专治大模型不懂行:浙大团队CatCoder解决AI编程水土不服难题

专治大模型不懂行:浙大团队CatCoder解决AI编程水土不服难题

近日,浙江大学副教授胡星和团队开发出一款名为 CatCoder 的 AI 框架,它能够读懂一个完整的软件项目,生成准确、可用的代码。在 Java 任务上,它在代码编译通过率和测试通过率上,比业内表现突出的代表之一 RepoCoder 最高提升了 14.44% 和 17.35%。

来自主题: AI资讯
8639 点击    2025-12-14 10:50
NeurIPS 2025 | 告别全量扫描!浙大提出COIDO:破解多模态数据选择「高耗」难题

NeurIPS 2025 | 告别全量扫描!浙大提出COIDO:破解多模态数据选择「高耗」难题

NeurIPS 2025 | 告别全量扫描!浙大提出COIDO:破解多模态数据选择「高耗」难题

在深入技术细节之前,我们先用一张漫画来直观理解 COIDO (Coupled Importance-Diversity Optimization) 解决的核心问题与方案:正如钟离在漫画中所言,面对海量视觉指令数据的选择任务,传统方法需要遍历全部数据才能进行筛选造成大量「磨损」(高昂计算成本)。同时在面对数据重要性和多样性问题时,传统方法往往顾此失彼。

来自主题: AI技术研报
7382 点击    2025-12-14 10:46
里程碑时刻!首个100B扩散语言模型来了,技术报告揭秘背后细节

里程碑时刻!首个100B扩散语言模型来了,技术报告揭秘背后细节

里程碑时刻!首个100B扩散语言模型来了,技术报告揭秘背后细节

前段时间,我们在 HuggingFace 页面发现了两个新模型:LLaDA2.0-mini 和 LLaDA2.0-flash。它们来自蚂蚁集团与人大、浙大、西湖大学组成的联合团队,都采用了 MoE 架构。前者总参数量为 16B,后者总参数量则高达 100B—— 在「扩散语言模型」这个领域,这是从未见过的规模。

来自主题: AI资讯
10158 点击    2025-12-12 16:08
浙大00后硕士破局AI记忆难题!新技术让长对话响应速度快十余倍

浙大00后硕士破局AI记忆难题!新技术让长对话响应速度快十余倍

浙大00后硕士破局AI记忆难题!新技术让长对话响应速度快十余倍

走上了堪称是“最佳 AI 转型路径”之后,他也在读研期间和合作者针对 AI 记忆开展了一项研究,借此发明出一种名为 LightMem(轻量记忆)的技术。在 LongMemEval 和 LoCoMo 这两个专门用于考察 AI 长期记忆能力的基准测试上,LightMem 回答问题的准确率全面超越之前的冠军模型,最高提升了 7% 以上,在某些数据集上甚至提升了将近 30%。

来自主题: AI技术研报
8106 点击    2025-12-06 11:15
Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!

Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!

Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!

浙江大学和新加坡南洋理工大学新研究旨在探索空间碳中和数据中心的可行性。太空环境具备两大独特优势:丰富的太阳能可为计算设备提供清洁稳定的电力;接近绝对零度的深空环境则为服务器废热提供了理想的散热条件。

来自主题: AI技术研报
10231 点击    2025-11-12 15:16
给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

给大模型版权上“防盗锁”!浙大新方法既能装指纹又能防篡改

随着 AI 技术的发展,大语言模型已经越来越多地应用于人们的日常生活中。需要了解的是,现阶段大语言模型面临版权保护的实际需求:

来自主题: AI技术研报
9807 点击    2025-11-03 14:19
比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

近日,范鹤鹤(浙江大学)、杨易(浙江大学)、Mohan Kankanhalli(新加坡国立大学)和吴飞(浙江大学)四位老师提出了一种具有划时代意义的神经网络基础操作——Translution。 该研究认为,神经网络对某种类型数据建模的本质是:

来自主题: AI技术研报
9593 点击    2025-10-23 10:59