AI资讯新闻榜单内容搜索-Phi

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Phi
全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

面对GenAI的技术浪潮,很多人都会在不断迭代更新的技术中逐渐迷失。站在潮头的Sapphire、Emergence、Menlo等风投公司,又会如何看待这场AI变局的现状与走向?

来自主题: AI资讯
9064 点击    2024-07-10 18:02
树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

Build大会召开两周之后,微软更新了Phi-3系列模型的技术报告。不仅加入最新的基准测试结果,而且对小模型、高性能的实现机制做出了适当的揭示。

来自主题: AI技术研报
10153 点击    2024-06-17 21:49
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。

来自主题: AI技术研报
9289 点击    2024-06-02 14:42
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。

来自主题: AI技术研报
10575 点击    2024-05-06 21:36
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
8015 点击    2024-04-29 20:31
微软发布Phi-3,性能超Llama-3,可手机端运行

微软发布Phi-3,性能超Llama-3,可手机端运行

微软发布Phi-3,性能超Llama-3,可手机端运行

Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。

来自主题: AI资讯
8723 点击    2024-04-24 10:41
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识

以脉冲神经网络(SNN)为代表的脑启发神经形态计算(neuromorphic computing)由于计算上的节能性质在最近几年受到了越来越多的关注 [1]。受启发于人脑中的生物神经元,神经形态计算通过模拟并行的存内计算、基于脉冲信号的事件驱动计算等生物特性,能够在不同于冯诺依曼架构的神经形态芯片上以低功耗实现神经网络计算。

来自主题: AI技术研报
3382 点击    2024-03-19 10:27