少即是多!10亿参数「小巨人」击败ChatGPT 少即是多!10亿参数「小巨人」击败ChatGPT 关键词: chatGPT,xLAM-1B,AI,大模型,Scaling Law 只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗? 来自主题: AI技术研报 6422 点击 2024-07-04 16:25