
DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版
DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版仅用不到1200行代码,实现最小化且完全可读的vLLM!DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。项目名为Nano-vLLM(纳米级-vLLM),有三大特点:快速离线推理:推理速度可与vLLM相媲美
仅用不到1200行代码,实现最小化且完全可读的vLLM!DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。项目名为Nano-vLLM(纳米级-vLLM),有三大特点:快速离线推理:推理速度可与vLLM相媲美
OpenAI重磅发布的GPT-4.1系列模型,带来了编程、指令跟随和长上下文处理能力的全面飞跃!由中科大校友Jiahui Yu领衔的团队打造。与此同时,备受争议的GPT-4.5将在三个月后停用,GPT-4.1 nano则以最小、最快、最便宜的姿态强势登场。
“英伟达版树莓派”这波良心了,性能涨70%,降价50%。 老黄召开厨房发布会,从烤箱里端出这台“掌心AI超算”。
今年 4 月,AI 领域大牛 Karpathy 一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」曾经引发机器学习社区的热烈讨论。
Perplexity 联合创始人&首席战略官 Johnny Ho 在不久前与 Lightspeed 合伙人 Michael Mignano 的一场对话中提到,Perplexity 的产品发布秉持“完全准备好才推出”的原则,通过小而持续的功能改进,让产品逐步融入用户的日常生活。
为了将危险扼杀在襁褓中,谷歌就只能进行无差别打击。
无法控制成本的大模型终将被“快好省”的小模型取代今年最热的AI赛道中,机构们自然也得下一些判断,比如说——2024年大模型的一个趋势,是将变得“越来越小”。
上个月,微软 CEO 纳德拉在 Ignite 大会上宣布自研小尺寸模型 Phi-2 将完全开源,在常识推理、语言理解和逻辑推理方面的性能显著改进。
都快到年底了,大模型领域还在卷,今天,Microsoft发布了参数量为2.7B的Phi-2——不仅13B参数以内没有对手,甚至还能和Llama 70B掰手腕!
Transformer大模型工作原理究竟是什么样的?一位软件工程师打开了大模型的矩阵世界。黑客帝国中,「矩阵模拟」的世界或许真的存在。