AI资讯新闻榜单内容搜索-长文本

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长文本
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7280 点击    2025-03-06 09:54
月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

2 月 18 日,月之暗面发布了一篇关于稀疏注意力框架 MoBA 的论文。MoBA 框架借鉴了 Mixture of Experts(MoE)的理念,提升了处理长文本的效率,它的上下文长度可扩展至 10M。并且,MoBA 支持在全注意力和稀疏注意力之间无缝切换,使得与现有的预训练模型兼容性大幅提升。

来自主题: AI技术研报
7360 点击    2025-02-23 11:38
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

谈到大模型的“国货之光”,除了DeepSeek之外,阿里云Qwen这边也有新动作——首次将开源Qwen模型的上下文扩展到1M长度。

来自主题: AI资讯
7603 点击    2025-01-27 14:18
浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

随着大模型(LLMs)的发展,AI 写作取得了较大进展。然而,现有的方法大多依赖检索知识增强生成(RAG)和角色扮演等技术,其在信息的深度挖掘方面仍存在不足,较难突破已有知识边界,导致生成的内容缺乏深度和原创性。

来自主题: AI技术研报
7039 点击    2025-01-25 23:50
一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

大模型长序列的处理能力已越来越重要,像复杂长文本任务、多帧视频理解任务、以及 OpenAI 近期发布的 o1、o3 系列模型的高计算量模式,需要处理的输入 + 输出总 token 数从几万量级上升到了几百万量级。

来自主题: AI技术研报
7390 点击    2025-01-11 13:45
卷起来了!长文本向量模型分块策略大比拼

卷起来了!长文本向量模型分块策略大比拼

卷起来了!长文本向量模型分块策略大比拼

长文本向量模型能够将十页长的文本编码为单个向量,听起来很强大,但真的实用吗? 很多人觉得... 未必。 直接用行不行?该不该分块?怎么分才最高效?本文将带你深入探讨长文本向量模型的不同分块策略,分析利弊,帮你避坑。

来自主题: AI技术研报
7856 点击    2024-12-13 11:33
Kimi 首个多模态功能体验,AI 一键为音乐生成 MV,月之暗面不再只卷长文本

Kimi 首个多模态功能体验,AI 一键为音乐生成 MV,月之暗面不再只卷长文本

Kimi 首个多模态功能体验,AI 一键为音乐生成 MV,月之暗面不再只卷长文本

在闭着眼睛听一首歌的时候,你有没有在脑海里想象过,应该搭配什么画面? Kimi 内测的最新功能「创作音乐视频」,就是奔着当 MV 导演去的。长文本领先的 Kimi,默不作声地「跨界」了。APPSO 也受邀首批体验了这一新功能。

来自主题: AI产品测评
7957 点击    2024-11-18 14:44
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6504 点击    2024-10-12 14:29