AI资讯新闻榜单内容搜索-moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: moe
从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

从Google Gemini到OpenAI Q*:生成式AI研究领域全面综述

这项综述性研究报告批判性地分析了生成式AI的发展现状和发展方向,并探究了谷歌Gemini和备受期待的OpenAI Q*等创新成果将如何改变多个领域的实际应用。

来自主题: AI资讯
5848 点击    2024-01-09 14:21
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突

多模态大模型做“多任务指令微调”,大模型可能会“学得多错得多”,因为不同任务之间的冲突,导致泛化能力下降。

来自主题: AI资讯
3524 点击    2023-12-30 14:39
深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

上周末,Mistral甩出的开源MoE大模型,震惊了整个开源社区。MoE究竟是什么?它又是如何提升了大语言模型的性能?

来自主题: AI资讯
6848 点击    2023-12-11 20:34
8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

前几日,一条MoE的磁力链接引爆AI圈。刚刚出炉的基准测试中,8*7B的小模型直接碾压了Llama 2 70B!网友直呼这是初创公司版的超级英雄故事,要赶超GPT-4只是时间问题了。有趣的是,创始人姓氏的首字母恰好组成了「L.L.M.」。

来自主题: AI资讯
6083 点击    2023-12-11 20:20
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
9032 点击    2023-12-10 14:35
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。

来自主题: AI资讯
6894 点击    2023-12-09 15:42