AI资讯新闻榜单内容搜索-3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 3
大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

长文本处理能力对LLM的重要性是显而易见的。在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k,然而今日,128k的上下文长度已经成为衡量模型技术先进性的重要标志之一。那你知道LLMs的长文本阅读能力如何评估吗?

来自主题: AI资讯
8081 点击    2024-08-14 11:25
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

TII开源全球第一个通用的大型Mamba架构模型Falcon Mamba 7B,性能与Transformer架构模型相媲美,在多个基准测试上的均分超过了Llama 3.1 8B和Mistral 7B。

来自主题: AI资讯
8172 点击    2024-08-13 17:07
ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

三维数字人生成和编辑在数字孪生、元宇宙、游戏、全息通讯等领域有广泛应用。传统三维数字人制作往往费时耗力,近年来研究者提出基于三维生成对抗网络(3D GAN)从 2D 图像中学习三维数字人,极大提高了数字人制作效率。

来自主题: AI资讯
5226 点击    2024-08-12 17:55
这个大模型,真的治好了我的论文阅读障碍

这个大模型,真的治好了我的论文阅读障碍

这个大模型,真的治好了我的论文阅读障碍

今年 3 月份,英伟达 CEO 黄仁勋举办了一个非常特别的活动。他邀请开创性论文《Attention Is All You Need》的作者们齐聚 GTC,畅谈生成式 AI 的未来发展方向。

来自主题: AI资讯
7475 点击    2024-08-12 17:24
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

2017 年,谷歌在论文《Attention is all you need》中提出了 Transformer,成为了深度学习领域的重大突破。该论文的引用数已经将近 13 万,后来的 GPT 家族所有模型也都是基于 Transformer 架构,可见其影响之广。 作为一种神经网络架构,Transformer 在从文本到视觉的多样任务中广受欢迎,尤其是在当前火热的 AI 聊天机器人领域。

来自主题: AI资讯
7704 点击    2024-08-11 17:38