AI资讯新闻榜单内容搜索-自然语言处理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 自然语言处理
万字长文:58岁的心理AI,会比人类更“忠诚”吗?

万字长文:58岁的心理AI,会比人类更“忠诚”吗?

万字长文:58岁的心理AI,会比人类更“忠诚”吗?

1966年,首个AI精神健康聊天机器人Eliza问世,作为一种简单的自然语言处理程序,它模拟了心理治疗师的对话风格,标志着AI在心理健康领域应用的起点。

来自主题: AI技术研报
7319 点击    2024-11-19 22:25
用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

用LaTRO框架,通过自我奖励机制来激发LLM潜在推理能力,基准上提升12.5% |Salesforce重磅

大规模语言模型(LLMs)已经在自然语言处理任务中展现了卓越的能力,但它们在复杂推理任务上依旧面临挑战。推理任务通常需要模型具有跨越多个步骤的推理能力,这超出了LLMs在传统训练阶段的表现。

来自主题: AI资讯
6743 点击    2024-11-15 10:34
文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

最近,来自上海大学、山东大学和埃默里大学等机构的研究人员首次提出了文本边图的数据集与基准,包括9个覆盖4个领域的大规模文本边图数据集,以及一套标准化的文本边图研究范式。该研究的发表极大促进了文本边图图表示学习的研究,有利于自然语言处理与图数据挖掘领域的深度合作。

来自主题: AI技术研报
3050 点击    2024-11-08 14:20
以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

大型语言模型 (LLM) 在各种自然语言处理和推理任务中表现出卓越的能力,某些应用场景甚至超越了人类的表现。然而,这类模型在最基础的算术问题的表现上却不尽如人意。

来自主题: AI技术研报
4363 点击    2024-10-18 13:54
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
6129 点击    2024-10-15 19:22
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
4233 点击    2024-10-14 15:42
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6506 点击    2024-10-12 14:29
TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

TPAMI 2024 | 计算机视觉中基于图神经网络和图Transformers的方法和最新进展

基于图神经网络的方法被广泛应用于不同问题并且显著推动了相关领域的进步,包括但不限于数据挖掘、计算机视觉和自然语言处理。考虑到图神经网络已经取得了丰硕的成果,一篇全面且详细的综述可以帮助相关研究人员掌握近年来计算机视觉中基于图神经网络的方法的进展,以及从现有论文中总结经验和产生新的想法。

来自主题: AI资讯
3511 点击    2024-09-09 14:23
清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

近日,清华大学电子系城市科学与计算研究中心的研究论文《EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities》获得自然语言处理顶会 ACL 2024杰出论文奖(Outstanding Paper Award)。

来自主题: AI技术研报
7471 点击    2024-09-04 15:53