AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
换模型就得重新优化提示词?用下MetaSPO,专门优化系统提示的Meta-Learning框架 | 最新

换模型就得重新优化提示词?用下MetaSPO,专门优化系统提示的Meta-Learning框架 | 最新

换模型就得重新优化提示词?用下MetaSPO,专门优化系统提示的Meta-Learning框架 | 最新

每次更换语言模型就要重新优化提示词?资源浪费且效率低下!本文介绍MetaSPO框架,首个专注模型迁移系统提示优化的元学习方法,让一次优化的提示可跨模型通用。我在儿童教育场景的实验验证了效果:框架自动生成了五种不同教育范式的系统提示,最优的"苏格拉底式"提示成功由DeepSeek-V3迁移到通义千问模型,评分从0.3920提升至0.4362。

来自主题: AI技术研报
5875 点击    2025-05-19 10:11
大模型也有"健忘症"?Supermemory让AI拥有"超级记忆",一行代码解锁无限对话!

大模型也有"健忘症"?Supermemory让AI拥有"超级记忆",一行代码解锁无限对话!

大模型也有"健忘症"?Supermemory让AI拥有"超级记忆",一行代码解锁无限对话!

,即使是最强大的大语言模型也有"健忘症"!但现在,Supermemory提出的创新解决方案横空出世,声称只需一行代码,就能让任何AI拥有"无限记忆"能力。这到底是怎么回事?今天我们就来一探究竟!

来自主题: AI资讯
7978 点击    2025-05-19 09:39
图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

自回归(AR)范式凭借将语言转化为离散 token 的核心技术,在大语言模型领域大获成功 —— 从 GPT-3 到 GPT-4o,「next-token prediction」以简单粗暴的因果建模横扫语言领域。

来自主题: AI技术研报
7183 点击    2025-05-18 14:28
iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

iOS 19还没来,我提前在iPhone上体验到了苹果最新的AI

苹果近期开源本地端侧视觉语言模型FastVLM,支持iPhone等设备本地运行,具备快速响应、低延迟和多设备适配特性。该模型依托自研框架MLX和视觉架构FastViT-HD,通过算法优化实现高效推理,或为未来智能眼镜等新硬件铺路,体现苹果将AI深度嵌入系统底层的战略布局。

来自主题: AI资讯
6561 点击    2025-05-16 15:48
PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

你以为PDF只是用来阅读文档的?这次它彻底颠覆了你的想象!极客Aiden Bai最新整活——直接把大语言模型(LLM)塞进PDF里,打开文件就能让AI讲故事、陪你聊天!更夸张的是,连Linux系统都能在PDF里运行。

来自主题: AI资讯
7963 点击    2025-05-16 15:33
一个提示攻破所有模型,OpenAI谷歌无一幸免!

一个提示攻破所有模型,OpenAI谷歌无一幸免!

一个提示攻破所有模型,OpenAI谷歌无一幸免!

多年来,生成式AI供应商一直向公众保证,大语言模型符合安全准则,并加强了对产生有害内容的侵害。然而,一种看似简单但非常有效的提示词策略,能够让所有主流大模型开启「无限制模式」。

来自主题: AI资讯
9168 点击    2025-05-15 18:52
刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

刚刚,DeepSeek首曝V3降成本秘诀!软硬协同突破Scaling天花板

DeepSeek最新论文深入剖析了V3/R1的开发历程,揭示了硬件与大语言模型架构协同设计的核心奥秘。论文展示了如何突破内存、计算和通信瓶颈,实现低成本、高效率的大规模AI训练与推理。不仅总结了实践经验,还为未来AI硬件与模型协同设计提出了建议。

来自主题: AI技术研报
7378 点击    2025-05-15 17:12
ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。

来自主题: AI技术研报
7219 点击    2025-05-14 14:04