AI资讯新闻榜单内容搜索-自然语言处理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 自然语言处理
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
5993 点击    2024-10-15 19:22
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
4110 点击    2024-10-14 15:42
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6374 点击    2024-10-12 14:29
TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

基于图神经网络的方法被广泛应用于不同问题并且显著推动了相关领域的进步,包括但不限于数据挖掘、计算机视觉和自然语言处理。考虑到图神经网络已经取得了丰硕的成果,一篇全面且详细的综述可以帮助相关研究人员掌握近年来计算机视觉中基于图神经网络的方法的进展,以及从现有论文中总结经验和产生新的想法。

来自主题: AI资讯
3401 点击    2024-09-09 14:23
清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

近日,清华大学电子系城市科学与计算研究中心的研究论文《EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities》获得自然语言处理顶会 ACL 2024杰出论文奖(Outstanding Paper Award)。

来自主题: AI技术研报
7322 点击    2024-09-04 15:53
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
8757 点击    2024-08-11 13:25
等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

人工智能(AI)在过去十年里取得了长足进步,特别是在自然语言处理和计算机视觉领域。然而,如何提升 AI 的认知能力和推理能力,仍然是一个巨大的挑战。

来自主题: AI技术研报
8445 点击    2024-07-01 15:13
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP) 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期致力于深度学习、多模态、计算机视觉等研究领域。

来自主题: AI技术研报
8871 点击    2024-05-27 16:24
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。

来自主题: AI技术研报
10155 点击    2024-05-06 21:36