AI资讯新闻榜单内容搜索-RoPE

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RoPE
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。

来自主题: AI技术研报
7358 点击    2024-12-08 12:20
对话Ropet CEO何嘉斌:AI潮玩的目标,就是造一个活的“Labubu”?

对话Ropet CEO何嘉斌:AI潮玩的目标,就是造一个活的“Labubu”?

对话Ropet CEO何嘉斌:AI潮玩的目标,就是造一个活的“Labubu”?

当一个机器人有了名字、有了主人,一切都会变得不一样。 我拿到下面这个小玩意的时候,它告诉了我它的名字叫做Ropet,它的主人是谁,它说着它肚子饿要吃饭。

来自主题: AI资讯
6772 点击    2024-12-03 10:18
这个网站,把人类叙事彻底分析透了

这个网站,把人类叙事彻底分析透了

这个网站,把人类叙事彻底分析透了

流行梗随风而过,TV Tropes 永垂不朽。

来自主题: AI资讯
3605 点击    2024-11-04 09:34
位置编码发展史:从零开始带你推导神秘的RoPE

位置编码发展史:从零开始带你推导神秘的RoPE

位置编码发展史:从零开始带你推导神秘的RoPE

RNN每个step的隐状态都取决于上一个step的输出,这种连续的状态转移方式使得RNN天然带有位置信息。

来自主题: AI技术研报
6074 点击    2024-07-26 09:23
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7981 点击    2024-04-29 20:31
200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

200万上下文窗口创飞Gemini 1.5!微软来砸谷歌场子了(doge)

谷歌刚刷新大模型上下文窗口长度记录,发布支持100万token的Gemini 1.5,微软就来砸场子了。

来自主题: AI技术研报
6473 点击    2024-02-24 11:58