AI资讯新闻榜单内容搜索-香港

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 香港
我MiniMax,用实习生处理数据,照样屠榜开源大模型

我MiniMax,用实习生处理数据,照样屠榜开源大模型

我MiniMax,用实习生处理数据,照样屠榜开源大模型

屠榜开源大模型的MiniMax M2是怎样炼成的?为啥M1用了Linear Attention,到了M2又换成更传统的Full Attention了? 面对现实任务,M2表现得非常扛打,在香港大学的AI-Trader模拟A股大赛中拿下了第一名,20天用10万本金赚了将近三千元。

来自主题: AI资讯
7345 点击    2025-11-04 20:23
港科提出新算法革新大模型推理范式:随机策略估值竟成LLM数学推理「神操作」

港科提出新算法革新大模型推理范式:随机策略估值竟成LLM数学推理「神操作」

港科提出新算法革新大模型推理范式:随机策略估值竟成LLM数学推理「神操作」

论文第一作者何浩然是香港科技大学博士生,研究方向包括强化学习和基础模型等,研究目标是通过经验和奖励激发超级智能。共同第一作者叶语霄是香港科技大学一年级博士。通讯作者为香港科技大学电子及计算机工程系、计

来自主题: AI技术研报
7868 点击    2025-11-01 09:24
大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘

大模型在强化学习过程中,终于知道什么经验更宝贵了! 来自上海人工智能实验室、澳门大学、南京大学和香港中文大学的研究团队,最近提出了一套经验管理和学习框架ExGRPO—— 通过科学地识别、存储、筛选和学习有价值的经验,让大模型在优化推理能力的道路上,走得更稳、更快、更远。

来自主题: AI技术研报
5520 点击    2025-10-23 15:42
AI模型守法率提升11%,港科大首次用法案构建安全benchmark

AI模型守法率提升11%,港科大首次用法案构建安全benchmark

AI模型守法率提升11%,港科大首次用法案构建安全benchmark

香港科技大学KnowComp实验室提出基于《欧盟人工智能法案》和《GDPR》的LLM安全新范式,构建合规测试基准并训练出性能优异的推理模型,为大语言模型安全管理提供了新方向。

来自主题: AI技术研报
8297 点击    2025-10-23 12:20
SIGGRAPH Asia 2025 | OmniPart框架,让3D内容创作像拼搭积木一样简单

SIGGRAPH Asia 2025 | OmniPart框架,让3D内容创作像拼搭积木一样简单

SIGGRAPH Asia 2025 | OmniPart框架,让3D内容创作像拼搭积木一样简单

在3D内容创作领域,如何像玩乐高一样,自由生成、编辑和组合对象的各个部件,一直是一个核心挑战。香港大学、VAST、哈尔滨工业大学及浙江大学的研究者们联手,推出了一个名为 OmniPart 的全新框架,巧妙地解决了这一难题。该研究已被计算机图形学顶会 SIGGRAPH Asia 2025 接收。

来自主题: AI技术研报
5728 点击    2025-10-22 14:48
斯坦福具身智能大佬引用,Huggingface官方催更:北京人形开源WoW具身世界模型

斯坦福具身智能大佬引用,Huggingface官方催更:北京人形开源WoW具身世界模型

斯坦福具身智能大佬引用,Huggingface官方催更:北京人形开源WoW具身世界模型

在「具身智能」与「世界模型」成为新一轮 AI 竞赛关键词的当下,来自北京人形机器人创新中心、北京大学多媒体信息处理国家重点实验室、香港科技大学的中国团队开源了全新的世界模型架构。

来自主题: AI技术研报
7714 点击    2025-10-19 12:34
ICCV 2025 | 浙大、港中文等提出EgoAgent:第一人称感知-行动-预测一体化智能体

ICCV 2025 | 浙大、港中文等提出EgoAgent:第一人称感知-行动-预测一体化智能体

ICCV 2025 | 浙大、港中文等提出EgoAgent:第一人称感知-行动-预测一体化智能体

在今年的国际计算机视觉大会(ICCV 2025)上,来自浙江大学、香港中文大学、上海交通大学和上海人工智能实验室的研究人员联合提出了第一人称联合预测智能体 EgoAgent。

来自主题: AI技术研报
7036 点击    2025-10-18 11:48
CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

2025年9月17日,中国科学院香港创新研究院人工智能与机器人创新中心(CAIR)在香港正式开源发布其最新科研成果——EchoCare“聆音”超声基座大模型(简称“聆音”)。该模型基于超过450万张、涵盖50多个人体器官的大规模超声影像数据集训练而成,在器官识别、器官分割、病灶分类等10余项典型超声医学任务测试中表现卓越,性能全面登顶。

来自主题: AI技术研报
7855 点击    2025-10-06 15:53
全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

全新合成框架SOTA:强化学习当引擎,任务合成当燃料,蚂蚁港大联合出品

蚂蚁通用人工智能中心自然语言组联合香港大学自然语言组(后简称“团队”)推出PromptCoT 2.0,要在大模型下半场押注任务合成。实验表明,通过“强起点、强反馈”的自博弈式训练,PromptCoT 2.0可以让30B-A3B模型在一系列数学代码推理任务上实现新的SOTA结果,达到和DeepSeek-R1-0528, OpenAI o3, Gemini 2.5 Pro等相当的表现。

来自主题: AI技术研报
7059 点击    2025-10-01 17:12
首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒

首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒

首次实现第一视角视频与人体动作同步生成!新框架攻克视角-动作对齐两大技术壁垒

AI生成第三视角视频已经驾轻就熟,但第一视角生成却仍然“不熟”。为此,新加坡国立大学、南洋理工大学、香港科技大学与上海人工智能实验室联合发布EgoTwin ,首次实现了第一视角视频与人体动作的联合生成。

来自主题: AI技术研报
8657 点击    2025-10-01 11:43