AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
OpenAI推销ChatGPT to B业务,微软客户也是目标

OpenAI推销ChatGPT to B业务,微软客户也是目标

OpenAI推销ChatGPT to B业务,微软客户也是目标

奥特曼接待了数百名 500 强公司的高管。 技术领先的 OpenAI,正在稳步推进大模型能力的落地。

来自主题: AI资讯
5007 点击    2024-04-14 14:34
CVPR 2024 | 仅需文本或图像提示,新框架CustomNeRF精准编辑3D场景

CVPR 2024 | 仅需文本或图像提示,新框架CustomNeRF精准编辑3D场景

CVPR 2024 | 仅需文本或图像提示,新框架CustomNeRF精准编辑3D场景

自 2020 年神经辐射场 (Neural Radiance Field, NeRF) 提出以来,将隐式表达推上了一个新的高度。作为当前最前沿的技术之一

来自主题: AI技术研报
5232 点击    2024-04-14 14:04
谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

近,来自澳大利亚蒙纳士大学、蚂蚁集团、IBM 研究院等机构的研究人员探索了模型重编程 (model reprogramming) 在大语言模型 (LLMs) 上应用,并提出了一个全新的视角

来自主题: AI技术研报
8772 点击    2024-04-14 13:07
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
9725 点击    2024-04-14 11:32
魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

不走Transformer寻常路,魔改RNN的国产新架构RWKV,有了新进展: 提出了两种新的RWKV架构,即Eagle (RWKV-5) 和Finch(RWKV-6)。

来自主题: AI资讯
9404 点击    2024-04-13 18:06
吴恩达预言成真?这群AI「员工」狂卷KPI

吴恩达预言成真?这群AI「员工」狂卷KPI

吴恩达预言成真?这群AI「员工」狂卷KPI

号称世界首个AI工程师Devin,7×24小时不限时打工,能够debug、训模型、构建部署应用程序,胜任各种代码任务

来自主题: AI资讯
8699 点击    2024-04-13 17:51
改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果

改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果

改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果

随着大模型的参数量日益增长,微调整个模型的开销逐渐变得难以接受。 为此,北京大学的研究团队提出了一种名为 PiSSA 的参数高效微调方法,在主流数据集上都超过了目前广泛使用的 LoRA 的微调效果。

来自主题: AI技术研报
11572 点击    2024-04-13 16:50
直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

谷歌又放大招了,发布下一代 Transformer 模型 Infini-Transformer。

来自主题: AI技术研报
10579 点击    2024-04-13 16:44