AI资讯新闻榜单内容搜索-大模

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模
扩散语言模型新发现:其计算潜力正在被浪费?

扩散语言模型新发现:其计算潜力正在被浪费?

扩散语言模型新发现:其计算潜力正在被浪费?

按从左到右的顺序依次生成下一个 token 真的是大模型生成方式的最优解吗?最近,越来越多的研究者对此提出质疑。其中,有些研究者已经转向一个新的方向 —— 掩码扩散语言模型(MDLM)。

来自主题: AI技术研报
10072 点击    2025-10-31 09:50
懂推理的蛋白质大模型来了!AI自主设计,50个分子命中抗体,成功率达15.5%,效率提升百倍!

懂推理的蛋白质大模型来了!AI自主设计,50个分子命中抗体,成功率达15.5%,效率提升百倍!

懂推理的蛋白质大模型来了!AI自主设计,50个分子命中抗体,成功率达15.5%,效率提升百倍!

蛋白质大模型的最新突破,来自中国!最近,百奥几何「悄悄地」发布了新一代全场景原子级蛋白质基础大模型GeoFlow V3,给全球同行们树了一个新榜样。当其他模型还在“卷规模”的时候,GeoFlow V3选择了一条不同的路线——首次将多步推理引入蛋白质设计,让模型具备“自我评估、自主进化”的能力。

来自主题: AI资讯
8910 点击    2025-10-30 22:47
刚刚,智源悟界·Emu3.5重塑世界模型格局,原生具备世界建模能力

刚刚,智源悟界·Emu3.5重塑世界模型格局,原生具备世界建模能力

刚刚,智源悟界·Emu3.5重塑世界模型格局,原生具备世界建模能力

今天,北京智源人工智能研究院(BAAI)重磅发布了其多模态系列模型的最新力作 —— 悟界・Emu3.5。这不仅仅是一次常规的模型迭代,Emu3.5 被定义为一个 “多模态世界大模型”(Multimodal World Foudation Model)。

来自主题: AI资讯
9542 点击    2025-10-30 18:07
苹果提出新型反向传播:一台iPhone 15 Pro Max就能微调LLM

苹果提出新型反向传播:一台iPhone 15 Pro Max就能微调LLM

苹果提出新型反向传播:一台iPhone 15 Pro Max就能微调LLM

用 iPhone 本地跑大模型已经不是新鲜事了,但能不能在 iPhone 上微调模型呢?

来自主题: AI技术研报
9970 点击    2025-10-30 17:27
中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

大语言模型(LLM)虽已展现出卓越的代码生成潜力,却依然面临着一道艰巨的挑战:如何在有限的计算资源约束下,同步提升对多种编程语言的理解与生成能力,同时不损害其在主流语言上的性能?

来自主题: AI技术研报
8446 点击    2025-10-30 16:23
牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

牛津VGG、港大、上交发布ELIP:超越CLIP等,多模态图片检索的增强视觉语言大模型预训练

多模态图片检索是计算机视觉和多模态机器学习领域很重要的一个任务。现在大家做多模态图片检索一般会用 CLIP/SigLIP 这种视觉语言大模型,因为他们经过了大规模的预训练,所以 zero-shot 的能力比较强。

来自主题: AI技术研报
7084 点击    2025-10-30 10:42
Cursor 2.0 发布首个编程大模型Composer!代码生成250tokens/秒,强化学习+MoE架构

Cursor 2.0 发布首个编程大模型Composer!代码生成250tokens/秒,强化学习+MoE架构

Cursor 2.0 发布首个编程大模型Composer!代码生成250tokens/秒,强化学习+MoE架构

最新进展,Cursor 2.0正式发布,并且首次搭载了「内部」大模型。 没错,不是GPT、不是Claude,如今模型栏多了个新名字——Composer。实力相当炸裂:据官方说法,Composer仅需30秒就能完成复杂任务,比同行快400%

来自主题: AI资讯
8597 点击    2025-10-30 09:14
仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

大语言模型(LLMs)推理能力近年来快速提升,但传统方法依赖大量昂贵的人工标注思维链。中国科学院计算所团队提出新框架PARO,通过让模型学习固定推理模式自动生成思维链,只需大模型标注1/10数据就能达到全量人工标注的性能。这种方法特别适合像金融、审计这样规则清晰的领域,为高效推理监督提供了全新思路。

来自主题: AI技术研报
6631 点击    2025-10-29 10:15