AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
遥感影像也能AI搜索?从像素到语义,快速实现

遥感影像也能AI搜索?从像素到语义,快速实现

遥感影像也能AI搜索?从像素到语义,快速实现

近期在LLM方面,AI搜索热度居高不下,遥感业务也能做AI搜索。

来自主题: AI技术研报
3519 点击    2024-10-21 11:34
颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

比传统MoE推理速度更快、性能更高的新一代架构,来了! 这个通用架构叫做MoE++,由颜水成领衔的昆仑万维2050研究院与北大袁粒团队联合提出。

来自主题: AI技术研报
3405 点击    2024-10-21 11:22
低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

内存占用小,训练表现也要好……大模型训练成功实现二者兼得。 来自北理、北大和港中文MMLab的研究团队提出了一种满足低秩约束的大模型全秩训练框架——Fira,成功打破了传统低秩方法中内存占用与训练表现的“非此即彼”僵局。

来自主题: AI技术研报
3399 点击    2024-10-21 10:58
开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

简单高效的大模型检索增强系统LightRAG,香港大学黄超团队最新研究成果。 开源两周时间在GitHub上获得将近5k标星,并登上趋势榜。

来自主题: AI技术研报
3924 点击    2024-10-21 10:23
大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

近日,来自谷歌和苹果的研究表明:AI模型掌握的知识比表现出来的要多得多!这些真实性信息集中在特定的token中,利用这一属性可以显著提高检测LLM错误输出的能力。

来自主题: AI技术研报
3468 点击    2024-10-20 17:16
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快

英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快

英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快

LLM训练速度还可以再飙升20倍!英伟达团队祭出全新架构归一化Transformer(nGPT),上下文越长,训练速度越快,还能维持原有精度。

来自主题: AI技术研报
3583 点击    2024-10-20 17:11
NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

大型语言模型(LLMs)虽然在适应新任务方面取得了长足进步,但它们仍面临着巨大的计算资源消耗,尤其在复杂领域的表现往往不尽如人意。

来自主题: AI技术研报
4186 点击    2024-10-20 16:58
视频生成模型变身智能体:斯坦福Percy Liang等提出VideoAgent,竟能自我优化

视频生成模型变身智能体:斯坦福Percy Liang等提出VideoAgent,竟能自我优化

视频生成模型变身智能体:斯坦福Percy Liang等提出VideoAgent,竟能自我优化

现在正是「文本生视频」赛道百花齐放的时代,而且其应用场景非常多,比如生成创意视频内容、创建游戏场景、制作动画和电影。

来自主题: AI技术研报
3640 点击    2024-10-20 16:55
132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

牛顿没解决的问题,AI给你解决了? AI的推理能力一直是研究的焦点。作为最纯粹、要求最高的推理形式之一,能否解决高级的数学问题,无疑是衡量语言模型推理水平的一把尺。

来自主题: AI技术研报
3757 点击    2024-10-20 16:41
OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

多模态生成新突破,字节&华师团队打造TextHarmony,在单一模型架构中实现模态生成的统一,并入选NeurIPS 2024。

来自主题: AI技术研报
3447 点击    2024-10-20 11:48
率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

机器人控制和自动驾驶的离线数据损坏问题有解了! 中科大王杰教授团队 (MIRA Lab) 提出了一种变分贝叶斯推断方法,有效地提升了智能决策模型的鲁棒性。

来自主题: AI技术研报
3329 点击    2024-10-20 11:43
苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果研究者发现:无论是OpenAI GPT-4o和o1,还是Llama、Phi、Gemma和Mistral等开源模型,都未被发现任何形式推理的证据,而更像是复杂的模式匹配器。无独有偶,一项多位数乘法的研究也被抛出来,越来越多的证据证实:LLM不会推理!

来自主题: AI技术研报
3275 点击    2024-10-19 16:32
大模型训练遭投毒损失千万美元?Anthropic惊人发现:LLM植入炸弹,代码库暗藏bug!

大模型训练遭投毒损失千万美元?Anthropic惊人发现:LLM植入炸弹,代码库暗藏bug!

大模型训练遭投毒损失千万美元?Anthropic惊人发现:LLM植入炸弹,代码库暗藏bug!

最近,大模型训练遭恶意攻击事件已经刷屏了。就在刚刚,Anthropic也发布了一篇论文,探讨了前沿模型的巨大破坏力,他们发现:模型遇到危险任务时会隐藏真实能力,还会在代码库中巧妙地插入bug,躲过LLM和人类「检查官」的追踪!

来自主题: AI技术研报
3473 点击    2024-10-19 16:24
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
8660 点击    2024-10-19 14:29
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
8545 点击    2024-10-19 14:15
SAM 2.1上新、Lingua代码库发布,一大波Meta开源工具来袭

SAM 2.1上新、Lingua代码库发布,一大波Meta开源工具来袭

SAM 2.1上新、Lingua代码库发布,一大波Meta开源工具来袭

今天,Meta 分享了一系列研究和模型,这些研究和模型支撑 Meta 实现高级机器智能(AMI)目标,同时也致力于开放科学和可复现性。

来自主题: AI技术研报
6851 点击    2024-10-19 14:07
Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

在强化学习中,当智能体的奖励机制与设计者的意图不一致时,可能会导致不理想的行为,而KL正则化作为一种常用的解决方案,通过限制智能体的行为来防止这种情况,但智能体在某些情况下仍可能表现出意料之外的行为;为了提高智能体的可靠性,研究人员提出了新的理论方案,通过改变指导原则来增强智能体在未知情况下的谨慎性。

来自主题: AI技术研报
6108 点击    2024-10-19 13:55
卷起来!让智能体评估智能体,Meta发布Agent-as-a-Judge

卷起来!让智能体评估智能体,Meta发布Agent-as-a-Judge

卷起来!让智能体评估智能体,Meta发布Agent-as-a-Judge

微软发布了 Copilot,Apple 将 Apple Intelligence 接入了 OpenAI 以增强 Siri。

来自主题: AI技术研报
3488 点击    2024-10-18 13:59
以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

大型语言模型 (LLM) 在各种自然语言处理和推理任务中表现出卓越的能力,某些应用场景甚至超越了人类的表现。然而,这类模型在最基础的算术问题的表现上却不尽如人意。

来自主题: AI技术研报
4195 点击    2024-10-18 13:54
DenseNet共一作者刘壮官宣新去向,将任普林斯顿大学助理教授

DenseNet共一作者刘壮官宣新去向,将任普林斯顿大学助理教授

DenseNet共一作者刘壮官宣新去向,将任普林斯顿大学助理教授

最新消息,DenseNet 作者之一刘壮将于 2025 年 9 月加盟普林斯顿大学,担任计算机科学系助理教授一职。

来自主题: AI技术研报
3295 点击    2024-10-18 13:46
大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大语言模型(LLM)正在推动通信行业向智能化转型,在自动生成网络配置、优化网络管理和预测网络流量等方面展现出巨大潜力。未来,LLM在电信领域的应用将需要克服数据集构建、模型部署和提示工程等挑战,并探索多模态集成、增强机器学习算法和经济高效的模型压缩技术。

来自主题: AI技术研报
3754 点击    2024-10-18 13:40
拿下诺奖AlphaFold破解受精之谜!揭秘精卵相遇生命「火花」点燃瞬间

拿下诺奖AlphaFold破解受精之谜!揭秘精卵相遇生命「火花」点燃瞬间

拿下诺奖AlphaFold破解受精之谜!揭秘精卵相遇生命「火花」点燃瞬间

精子和卵子结合第一瞬间,会发生什么?AlphaFold竟揭晓了答案。它成功预测出,三种精子蛋白质相互作用的复合物,成为生命孕育的关键所在。

来自主题: AI技术研报
3382 点击    2024-10-18 13:24
NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

在数字人领域,形象的生成需要依赖于基础的表征学习。FaceChain 团队除了在数字人生成领域持续贡献之外,在基础的人脸表征学习领域也一直在进行深入研究。

来自主题: AI技术研报
5087 点击    2024-10-18 11:09
全模态对齐框架align-anything来了:实现跨模态指令跟随

全模态对齐框架align-anything来了:实现跨模态指令跟随

全模态对齐框架align-anything来了:实现跨模态指令跟随

如何全模态大模型与人类的意图相对齐,已成为一个极具前瞻性且至关重要的挑战。

来自主题: AI技术研报
7375 点击    2024-10-18 10:53
Meta版o1来了!田渊栋团队整合快慢思考,能走迷宫推箱子

Meta版o1来了!田渊栋团队整合快慢思考,能走迷宫推箱子

Meta版o1来了!田渊栋团队整合快慢思考,能走迷宫推箱子

Meta版o1也来了。 田渊栋团队带来新作Dualformer,把快慢思考无缝结合,性能提升还成本更低。 能解决迷宫、推箱子等复杂问题。

来自主题: AI技术研报
3185 点击    2024-10-17 16:50
4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

4090笔记本0.37秒直出大片!英伟达联手MIT清华祭出Sana架构,速度秒杀FLUX

一台4090笔记本,秒生1K质量高清图。英伟达联合MIT清华团队提出的Sana架构,得益于核心架构创新,具备了惊人的图像生成速度,而且最高能实现4k分辨率。

来自主题: AI技术研报
2994 点击    2024-10-17 16:01