AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

时隔5年,谷歌再创量子霸权里程碑!RCS算法让电路体积增加一倍

量子计算机和经典计算机之间的较量,是永恒的。谷歌最新Nature研究中,证明了随机电路采样可以容忍多大噪声,依旧实现了量子霸权。

来自主题: AI技术研报
8311 点击    2024-10-15 14:31
更快、更强、更经济!港大开源大模型RAG系统LightRAG

更快、更强、更经济!港大开源大模型RAG系统LightRAG

更快、更强、更经济!港大开源大模型RAG系统LightRAG

LightRAG通过双层检索范式和基于图的索引策略提高了信息检索的全面性和效率,同时具备对新数据快速适应的能力。在多个数据集上的实验表明,LightRAG在检索准确性和响应多样性方面均优于现有的基线模型,并且在资源消耗和动态环境适应性方面表现更优,使其在实际应用中更为有效和经济。

来自主题: AI技术研报
6505 点击    2024-10-14 16:48
陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

陶哲轩用AI证明方程理论,19天进度99.99%!论文即将上线

AI已完全融入数学家的工作流中。陶哲轩刚刚宣布,最新方程理论项目已完成99.9963%,众包之力外加AI辅助取得了重大成绩。他认为,剩余大约700个让人类头疼的难题,AI或许更有潜力。

来自主题: AI技术研报
3802 点击    2024-10-14 16:42
Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

Evaluation is All You Need!首个开源多模态大模型通用评测器LLaVA-Critic

随着对现有互联网数据的预训练逐渐成熟,研究的探索空间正由预训练转向后期训练(Post-training),OpenAI o1 的发布正彰显了这一点。

来自主题: AI技术研报
3956 点击    2024-10-14 15:46
图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

图灵奖得主Yoshua Bengio新作:Were RNNs All We Needed?

自从 Transformer 模型问世以来,试图挑战其在自然语言处理地位的挑战者层出不穷。 这次登场的选手,不仅要挑战 Transformer 的地位,还致敬了经典论文的名字。 再看这篇论文的作者列表,图灵奖得主、深度学习三巨头之一的 Yoshua Bengio 赫然在列。

来自主题: AI技术研报
4075 点击    2024-10-14 15:42
首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

首个o1复现开源RL框架OpenR来了,UCL、上交等高校联合团队发布

o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?

来自主题: AI技术研报
4298 点击    2024-10-14 15:37
李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

在用模拟环境训练机器人时,所用的数据与真实世界存在着巨大的差异。为此,李飞飞团队提出「数字表亲」,这种虚拟资产既具备数字孪生的优势,还能补足泛化能力的不足,并大大降低了成本。

来自主题: AI技术研报
6262 点击    2024-10-14 15:30
扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

扩散模型训练方法一直错了!谢赛宁:Representation matters

是什么让纽约大学著名研究者谢赛宁三连呼喊「Representation matters」?他表示:「我们可能一直都在用错误的方法训练扩散模型。」即使对生成模型而言,表征也依然有用。基于此,他们提出了 REPA,即表征对齐技术,其能让「训练扩散 Transformer 变得比你想象的更简单。」

来自主题: AI技术研报
3445 点击    2024-10-14 15:22
AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

AI作曲缺数据,浙大GTSinger数据集上线:适配所有歌声任务、带有真实乐谱

传统的歌声任务,如歌声合成,大多是在利用输入的歌词和乐谱生成高质量的歌声。随着深度学习的发展,人们希望实现可控和能个性化定制的歌声生成。

来自主题: AI技术研报
6110 点击    2024-10-14 10:38
大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

1%的合成数据,就让LLM完全崩溃了? 7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。

来自主题: AI技术研报
4375 点击    2024-10-14 10:12
OpenAI今天Open了一下:开源多智能体框架Swarm

OpenAI今天Open了一下:开源多智能体框架Swarm

OpenAI今天Open了一下:开源多智能体框架Swarm

毫无疑问,多智能体肯定是 OpenAI 未来重要的研究方向之一,前些天 OpenAI 著名研究科学家 Noam Brown 还在 X 上为 OpenAI 正在组建的一个新的多智能体研究团队招募机器学习工程师。

来自主题: AI技术研报
5305 点击    2024-10-12 15:02
六年、六届学生接力,共铸上交大图像合成工具箱libcom

六年、六届学生接力,共铸上交大图像合成工具箱libcom

六年、六届学生接力,共铸上交大图像合成工具箱libcom

如果你对 arXiv 的版本号有所了解,你就知道这篇论文已经更新了 4 次,现在已经来到了第 5 个版本。实际上,这个 arXiv 编号属于上海交通大学牛力团队一篇持续更新了四年的综述报告。

来自主题: AI技术研报
4764 点击    2024-10-12 14:51
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6342 点击    2024-10-12 14:29
米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

米开朗基罗怎么说?谷歌DeepMind推出长上下文评估新框架

近日,来自谷歌DeepMind的研究人员提出了Michelangelo,「用米开朗基罗的观点」来测量任意上下文长度的基础模型性能。

来自主题: AI技术研报
3872 点击    2024-10-12 11:07
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6070 点击    2024-10-11 13:55
首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

首个AI Kaggle特级大师诞生,o1夺7金封王!OpenAI放出AGI大招:L3级智能体明年要来?

OpenAI即将要兑现L3级智能体承诺了!MLE-bench新基准汇聚75个Kaggle竞赛,o1首测便拿下7金,多次尝试性能还能飙升17%,堪称首个AI Kaggle特级大师。

来自主题: AI技术研报
6303 点击    2024-10-11 11:14
诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

诺贝尔文学奖要颁给ChatGPT?奥特曼得奖呼声高,Hinton怒斥:他不配!

本届诺奖的AI含量,实在是过高了!今晚的文学奖会颁给ChatGPT或者奥特曼吗?已经有一大波网友下注了。另一边,Hinton已经炮轰起了奥特曼,力挺Ilya当初赶走他;而LSTM之父则怒斥Hinton不配诺奖。

来自主题: AI技术研报
6270 点击    2024-10-10 19:02
NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

该研究主要探讨了大语言模型的全局剪枝方法,旨在提高预训练语言模型的效率。该成果的发表为大模型的剪枝与优化研究提供了新的视角,并在相关领域具有重要的应用潜力。

来自主题: AI技术研报
4578 点击    2024-10-10 17:17
清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

随着诺贝尔物理学奖颁给了「机器学习之父」Geoffrey Hinton,另一个借鉴物理学概念的模型架构也横空出世——微软清华团队的最新架构Differential Transformer,从注意力模块入手,实现了Transformer的核心能力提升。

来自主题: AI技术研报
7451 点击    2024-10-10 14:24
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

随着大规模语言模型的快速发展,如 GPT、Claude 等,LLM 通过预训练海量的文本数据展现了惊人的语言生成能力。然而,即便如此,LLM 仍然存在生成不当或偏离预期的结果。这种现象在推理过程中尤为突出,常常导致不准确、不符合语境或不合伦理的回答。为了解决这一问题,学术界和工业界提出了一系列对齐(Alignment)技术,旨在优化模型的输出,使其更加符合人类的价值观和期望。

来自主题: AI技术研报
7606 点击    2024-10-10 12:21
这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

Transformer 的强大实力已经在诸多大型语言模型(LLM)上得到了证明,但该架构远非完美,也有很多研究者致力于改进这一架构,比如机器之心曾报道过的 Reformer 和 Infini-Transformer。

来自主题: AI技术研报
6101 点击    2024-10-10 12:15
上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

在人工智能领域掀起巨浪的 OpenAI o1 模型发布三周后,一支由高校年轻研究者组成的团队今天发布了题为 "o1 Replication Journey: A Strategic Progress Report (o1 探索之旅:战略进展报告)" 的研究进展报告。

来自主题: AI技术研报
5212 点击    2024-10-09 12:55
重要的事情说两遍!Prompt「复读机」,显著提高LLM推理能力

重要的事情说两遍!Prompt「复读机」,显著提高LLM推理能力

重要的事情说两遍!Prompt「复读机」,显著提高LLM推理能力

众所周知,人类的本质是复读机。 我们遵循复读机的自我修养:敲黑板,划重点,重要的事情说三遍。 but,事实上同样的方法对付AI也有奇效!

来自主题: AI技术研报
3520 点击    2024-10-08 18:54
「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

Transformer计算,竟然直接优化到乘法运算了。MIT两位华人学者近期发表的一篇论文提出:Addition is All You Need,让LLM的能耗最高降低95%。

来自主题: AI技术研报
3850 点击    2024-10-08 17:32
TPAMI | 安全强化学习方法、理论与应用综述,慕工大、同济、伯克利等深度解析

TPAMI | 安全强化学习方法、理论与应用综述,慕工大、同济、伯克利等深度解析

TPAMI | 安全强化学习方法、理论与应用综述,慕工大、同济、伯克利等深度解析

现实世界中的强化学习在应用过程中也面临着巨大的挑战,尤其是如何保证系统的安全性。为了解决这一问题,安全强化学习(Safe Reinforcement Learning, Safe RL)应运而生,成为当前学术界和工业界关注的焦点。

来自主题: AI技术研报
3758 点击    2024-10-08 17:23
重磅:Mila和谷歌DeepMind以及微软联合发布,并非所有LLM推理者都具备相同能力

重磅:Mila和谷歌DeepMind以及微软联合发布,并非所有LLM推理者都具备相同能力

重磅:Mila和谷歌DeepMind以及微软联合发布,并非所有LLM推理者都具备相同能力

Mila、谷歌DeepMind和微软的研究团队近期联合发布了一项重要研究成果,揭示了LLM在推理能力上存在的显著差异。这项研究不仅挑战了我们对LLM推理能力的认知,也提醒我们在开发AI应用时,LLM的选择上要多考虑一些因素,尤其是需要注意Prompt的敏感性和一致性。

来自主题: AI技术研报
3469 点击    2024-10-07 16:19