AI资讯新闻榜单内容搜索-Grok

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Grok
资源多到什么程度,才能创业追 OpenAI?

资源多到什么程度,才能创业追 OpenAI?

资源多到什么程度,才能创业追 OpenAI?

xAI 今天宣布推出 Grok-2 和 Grok-2 mini 测试版,官方说,它的表现比 Claude 3.5 Sonnet 和 GPT-4-Turbo 更好。

来自主题: AI资讯
5189 点击    2024-08-15 10:27
MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE已然成为AI界的主流架构,不论是开源Grok,还是闭源GPT-4,皆是其拥趸。然而,这些模型的专家,最大数量仅有32个。最近,谷歌DeepMind提出了全新的策略PEER,可将MoE扩展到百万个专家,还不会增加计算成本。

来自主题: AI技术研报
8392 点击    2024-07-15 20:01
马斯克豪掷40亿训Grok-3!红杉高盛大泼冷水,AI收支鸿沟或已达5000亿美元

马斯克豪掷40亿训Grok-3!红杉高盛大泼冷水,AI收支鸿沟或已达5000亿美元

马斯克豪掷40亿训Grok-3!红杉高盛大泼冷水,AI收支鸿沟或已达5000亿美元

马斯克为Grok 3要豪掷近40亿美元狂买10万张H100,GPT-6的训练则可能要耗资百亿。然而红杉和高盛近日都给行业泼了冷水:每年要挣6000亿美元才能支付的巨额硬件支出,换来的却只是OpenAI 34亿美元的收入,绝大多数初创连1亿美元都达不到。而如果全世界的AI泡沫都被戳破,很可能就会导致新的经济危机。

来自主题: AI资讯
8372 点击    2024-07-06 18:46
马斯克豪掷40亿购10万张H100训Grok 3!自曝Grok 2下月上线,巨额博弈剑指OpenAI

马斯克豪掷40亿购10万张H100训Grok 3!自曝Grok 2下月上线,巨额博弈剑指OpenAI

马斯克豪掷40亿购10万张H100训Grok 3!自曝Grok 2下月上线,巨额博弈剑指OpenAI

马斯克连回两条推文为xAI造势,宣布8月发布Grok 2,年底将推出在10万张H100上训练的Grok 3,芯片加持创新数据训练,打造对标GPT的新一代大语言模型。

来自主题: AI资讯
9489 点击    2024-07-03 16:19
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
7441 点击    2024-05-29 15:14
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o

最近,许久没有新动向的马斯克放出了大消息——他旗下的人工智能初创公司xAI将投入巨资建造一个超算中心,以保证Grok 2及之后版本的训练。这个「超级计算工厂」预计于2025年秋季建成,规模将达到目前最大GPU集群的四倍。

来自主题: AI资讯
8453 点击    2024-05-27 15:39
算力不足,小模型成AI模型发展下个方向?

算力不足,小模型成AI模型发展下个方向?

算力不足,小模型成AI模型发展下个方向?

这段时间,AI模型界是真的热闹,新的模型不断涌现,不管是开源还是闭源,都在刷新成绩。就在前几天,Meta就上演了一出“重夺开源铁王座”的好戏。发布了Llama 3 8B和70B两个版本,在多项指标上都超越了此前开源的Grok-1和DBRX,成为了新的开源大模型王者。

来自主题: AI资讯
7940 点击    2024-04-24 10:20