AI资讯新闻榜单内容搜索-7B大模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 7B大模型
80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。

来自主题: AI技术研报
7272 点击    2024-11-29 13:58
猎户星空发布MoE大模型,推出AI数据宝AirDS

猎户星空发布MoE大模型,推出AI数据宝AirDS

猎户星空发布MoE大模型,推出AI数据宝AirDS

11月27日,猎户星空联合聚云科技举办了题为《Data Ready for Al,MoE大模型发布暨商业闭环分享》媒体见面会。猎户星空正式发布了自主研发的Orion-MoE 8×7B大模型,并携手聚云科技推出了基于该大模型的数据服务—AI数据宝AirDS(AI-Ready Data Service)。

来自主题: AI资讯
8194 点击    2024-11-28 10:12
苹果开源7B大模型,训练过程数据集一口气全给了,网友:开放得不像苹果

苹果开源7B大模型,训练过程数据集一口气全给了,网友:开放得不像苹果

苹果开源7B大模型,训练过程数据集一口气全给了,网友:开放得不像苹果

苹果最新杀入开源大模型战场,而且比其他公司更开放。 推出7B模型,不仅效果与Llama 3 8B相当,而且一次性开源了全部训练过程和资源。大模型,AI,苹果AI,苹果开源模型

来自主题: AI资讯
7369 点击    2024-07-23 00:14
田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

3 月 6 日,田渊栋又一项研究出炉,这次,他们主攻 LLM 内存效率。除了田渊栋本人,还有来自加州理工学院、德克萨斯大学奥斯汀分校以及 CMU 的研究者。

来自主题: AI技术研报
9981 点击    2024-03-08 15:07