AI资讯新闻榜单内容搜索-io

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: io
曝 OpenAI 下一代模型 12 月前推出,性能提升百倍

曝 OpenAI 下一代模型 12 月前推出,性能提升百倍

曝 OpenAI 下一代模型 12 月前推出,性能提升百倍

OpenAI 下一代新模型还要多久才能到来?最新的消息是 12 月份之前。 据外媒 The Verge 报道,OpenAI 计划在 12 月之前推出其下一个前沿模型 Orion(猎户座)。

来自主题: AI资讯
3454 点击    2024-10-25 13:51
集成ChatGPT,苹果AI更多功能放出,最新开发者测试版系统发布

集成ChatGPT,苹果AI更多功能放出,最新开发者测试版系统发布

集成ChatGPT,苹果AI更多功能放出,最新开发者测试版系统发布

iOS带着ChatGPT来了 苹果开发者测试版系统上新!更多Apple Intelligence功能已经可用了,包括ChatGPT集成。 iOS 18终于带着ChatGPT来了。

来自主题: AI资讯
4007 点击    2024-10-25 09:30
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

TL;DR:DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度,同时在长短上下文任务中保持了准确率。

来自主题: AI技术研报
3628 点击    2024-10-24 11:33
魔法填充+无限扩图,Ideogram推出AI画板工具Canvas

魔法填充+无限扩图,Ideogram推出AI画板工具Canvas

魔法填充+无限扩图,Ideogram推出AI画板工具Canvas

过去 24 小时内发布或更新的 AI 服务包括但不限于 Stable Diffusion 3.5 最强模型全家桶、能操作用户电脑的 Claude 3.5 Sonnet、Genmo 开源的可商用的 Mochi 1 DiT、Runway 推出的一款生成式角色表演工具…… 以及我们这里要介绍 Ideogram Canvas,一款基于 AI 的无限创意画板服务,可用于组织、生成、编辑和组合图像。

来自主题: AI资讯
6988 点击    2024-10-24 10:34
谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

在NLP领域,研究者们已经充分认识并认可了表征学习的重要性,那么视觉领域的生成模型呢?最近,谢赛宁团队发表的一篇研究就拿出了非常有力的证据:Representation matters!

来自主题: AI技术研报
3426 点击    2024-10-23 13:37
刚刚!Stable Diffusion 3.5最强模型全家桶来了,三个型号

刚刚!Stable Diffusion 3.5最强模型全家桶来了,三个型号

刚刚!Stable Diffusion 3.5最强模型全家桶来了,三个型号

就在刚刚,Stability AI发布了自家最强的模型Stable Diffusion 3.5,而且是一个全家桶,包含三个版本。

来自主题: AI资讯
3204 点击    2024-10-23 10:38
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
8824 点击    2024-10-19 14:29
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
8750 点击    2024-10-19 14:15
Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

Bengio团队新论文!KL正则化有漏洞,强化学习新策略:不要做我可能不会做的事情

在强化学习中,当智能体的奖励机制与设计者的意图不一致时,可能会导致不理想的行为,而KL正则化作为一种常用的解决方案,通过限制智能体的行为来防止这种情况,但智能体在某些情况下仍可能表现出意料之外的行为;为了提高智能体的可靠性,研究人员提出了新的理论方案,通过改变指导原则来增强智能体在未知情况下的谨慎性。

来自主题: AI技术研报
6219 点击    2024-10-19 13:55