AI资讯新闻榜单内容搜索-8

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 8
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
6493 点击    2025-05-01 13:54
仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。

来自主题: AI技术研报
5580 点击    2025-04-20 21:12
DeepSeek+开源n8n:24h推特(X)热点监控Workflow太绝了!【附赠:完整工作流文件】

DeepSeek+开源n8n:24h推特(X)热点监控Workflow太绝了!【附赠:完整工作流文件】

DeepSeek+开源n8n:24h推特(X)热点监控Workflow太绝了!【附赠:完整工作流文件】

前两天给大家分享了一个我认为最强的开源AI Workflow平台:n8n。经过这几天的研究,我用n8n实现了一套超实用的X(原Twitter)热点监控workflow(工作流)。它由两个workflow(工作流)组成

来自主题: AI技术研报
7761 点击    2025-04-11 10:27
一文读懂n8n:零基础玩转AI智能体,我该怎么选!与Coze(扣子)、Dify区别在哪?

一文读懂n8n:零基础玩转AI智能体,我该怎么选!与Coze(扣子)、Dify区别在哪?

一文读懂n8n:零基础玩转AI智能体,我该怎么选!与Coze(扣子)、Dify区别在哪?

疯哥收到最多的问题就是关于n8n与coze(扣子)、Dify有何不同,n8n和他们相比有什么优势?疯哥是资深n8n玩家,深知n8n能带给个人和企业多么强大的能力。但是,非常多的国内朋友从来都没听说过n8n,更不用提使用n8n为自己和企业搭建强大的AI自动化工作流。

来自主题: AI技术研报
8316 点击    2025-03-30 11:01
速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

速递|红杉、Highland Europe押注AI自动化,n8n获6000万美元融资,估值2.7亿美元

开发者工具正在随着 AI 的快速发展而改变。因此,那些在其工作流程中更容易采用 AI 的公司正受到广泛关注。2022 年,一家名为 n8n(发音为“enay-ten”)的初创公司将其工作流自动化平台转向更加 AI 友好,该公司表示其收入增长了 5 倍,仅在过去两个月就翻了一番。

来自主题: AI资讯
8022 点击    2025-03-25 12:13
老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

满血版DeepSeek R1部署A100,基于INT8量化,相比BF16实现50%吞吐提升! 美团搜推机器学习团队最新开源,实现对DeepSeek R1模型基本无损的INT8精度量化。

来自主题: AI技术研报
5770 点击    2025-03-04 20:36
高通最新5G芯片,AI爆了

高通最新5G芯片,AI爆了

高通最新5G芯片,AI爆了

大模型时代,万物皆可AI,通信也不例外。

来自主题: AI资讯
6967 点击    2025-03-04 10:52
DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

DeepSeek开源周第一天就放大招!FlashMLA强势登场,这是专为英伟达Hopper GPU打造MLA解码内核。注意,DeepSeek训练成本极低的两大关键,一个是MoE,另一个就是MLA。

来自主题: AI资讯
8778 点击    2025-02-24 10:57