AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
芝大论文证明GPT-4选股准确率高达60%,人类股票分析师要下岗?AI大牛质疑数据污染

芝大论文证明GPT-4选股准确率高达60%,人类股票分析师要下岗?AI大牛质疑数据污染

芝大论文证明GPT-4选股准确率高达60%,人类股票分析师要下岗?AI大牛质疑数据污染

GPT-4在为人类选股时,表现竟然超越了大部分人类分析师,和针对金融训练的专业模型?在没有任何上下文的情况下,它们直接就成功分析了财务报表,这一发现让许多业内大咖震惊了。然而好景不长,有AI大牛指出研究中的bug:之所以会这样,很可能是训练数据被污染了。

来自主题: AI资讯
7038 点击    2024-05-27 15:32
国产大模型:今天起,我们100万tokens只需1元!

国产大模型:今天起,我们100万tokens只需1元!

国产大模型:今天起,我们100万tokens只需1元!

昨天刚刚在顶会ICLR作为特邀演讲(Invited Talk)中“国内唯一”的大模型玩家智谱AI,今天又放出了一个好消息

来自主题: AI技术研报
8267 点击    2024-05-12 12:35
百万tokens低至1元!大模型越来越卷了

百万tokens低至1元!大模型越来越卷了

百万tokens低至1元!大模型越来越卷了

在刚刚举行的 ICLR 2024 大会上,智谱AI的大模型技术团队公布了面向激动人心的AGI通用人工智能前景的三大技术趋势,同时预告了GLM的后续升级版本。

来自主题: AI资讯
5415 点击    2024-05-12 11:19
58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。

来自主题: AI资讯
9555 点击    2024-05-06 20:51
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7713 点击    2024-04-29 20:31
极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行

从国际顶流 GPT-4 128K、Claude 200K 到国内「当红炸子鸡」支持 200 万字上下文的 Kimi Chat,大语言模型(LLM)在长上下文技术上不约而同地卷起来了

来自主题: AI技术研报
5518 点击    2024-04-16 18:08