AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
TacticAI:足球战术人工智能助手

TacticAI:足球战术人工智能助手

TacticAI:足球战术人工智能助手

识别对手球队实施的关键战术模式并制定有效的应对措施是现代足球的核心。 然而,通过算法实现这一点仍然是一个开放的研究挑战。 为了解决这一未满足的需求,我们提出了 TacticAI,这是一款与利物浦足球俱乐部领域专家密切合作开发和评估的人工智能足球战术助手。

来自主题: AI技术研报
8045 点击    2024-11-21 09:36
媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

如何解决模型生成幻觉一直是人工智能(AI)领域的一个悬而未解的问题。为了测量语言模型的事实正确性,近期 OpenAI 发布并开源了一个名为 SimpleQA 的评测集。而我们也同样一直在关注模型事实正确性这一领域,目前该领域存在数据过时、评测不准和覆盖不全等问题。例如现在大家广泛使用的知识评测集还是 CommonSenseQA、CMMLU 和 C-Eval 等选择题形式的评测集。

来自主题: AI技术研报
7251 点击    2024-11-20 15:02
从计算机视觉向医疗AI,上海交大谢伟迪发布多项成果,登Nature子刊/NeurIPS/CVPR等

从计算机视觉向医疗AI,上海交大谢伟迪发布多项成果,登Nature子刊/NeurIPS/CVPR等

从计算机视觉向医疗AI,上海交大谢伟迪发布多项成果,登Nature子刊/NeurIPS/CVPR等

近年来,AI for Science 发展提速,不仅为科研领域带来创新研究思路,同时也拓宽了 AI 的落地通路,为其提供了更多具有挑战性的应用场景。在这个过程中,越来越多的 AI 领域研究人员开始关注医疗、材料、生物等传统科研领域,探索其中的研究难点与行业挑战。

来自主题: AI技术研报
6594 点击    2024-11-20 14:30
微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

朋友们,想了解为什么同一模型会带来大量结果的不一致性吗?今天,我们来一起深入分析一下来自微软和麻省理工学院的一项重大发现——不同的Prompt格式如何显著影响LLM的输出精度。这些研究结果对于应用Prompt优化设计具有非常重要的应用价值。

来自主题: AI技术研报
7734 点击    2024-11-20 09:19
万字长文:58岁的心理AI,会比人类更“忠诚”吗?

万字长文:58岁的心理AI,会比人类更“忠诚”吗?

万字长文:58岁的心理AI,会比人类更“忠诚”吗?

1966年,首个AI精神健康聊天机器人Eliza问世,作为一种简单的自然语言处理程序,它模拟了心理治疗师的对话风格,标志着AI在心理健康领域应用的起点。

来自主题: AI技术研报
7152 点击    2024-11-19 22:25
北大等发布多模态版o1!首个慢思考VLM将开源,视觉推理超越闭源模型

北大等发布多模态版o1!首个慢思考VLM将开源,视觉推理超越闭源模型

北大等发布多模态版o1!首个慢思考VLM将开源,视觉推理超越闭源模型

北大等出品,首个多模态版o1开源模型来了—— 代号LLaVA-o1,基于Llama-3.2-Vision模型打造,超越传统思维链提示,实现自主“慢思考”推理。 在多模态推理基准测试中,LLaVA-o1超越其基础模型8.9%,并在性能上超越了一众开闭源模型。

来自主题: AI技术研报
5233 点击    2024-11-19 21:01
LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

大模型在数学问题上的表现不佳,原因在于采取启发式算法进行数学运算的,通过定位到多层感知机(MLP)中的单个神经元,可以对进行数学运算的具体过程进行解释。

来自主题: AI技术研报
6932 点击    2024-11-19 19:53
多模态竞技场对标90B Llama 3.2!Pixtral 12B技术报告全公开

多模态竞技场对标90B Llama 3.2!Pixtral 12B技术报告全公开

多模态竞技场对标90B Llama 3.2!Pixtral 12B技术报告全公开

以开源极客之姿杀入江湖的Mistral AI,在9月份甩出了自家的首款多模态大模型Pixtral 12B,如今,报告之期已至,技术细节全公开。

来自主题: AI技术研报
5102 点击    2024-11-19 17:15
扩散模型版CS: GO!世界模型+强化学习:2小时训练登顶Atari 100K

扩散模型版CS: GO!世界模型+强化学习:2小时训练登顶Atari 100K

扩散模型版CS: GO!世界模型+强化学习:2小时训练登顶Atari 100K

DIAMOND是一种新型的强化学习智能体,在一个由扩散模型构建的虚拟世界中进行训练,能够以更高效率学习和掌握各种任务。在Atari 100k基准测试中,DIAMOND的平均得分超越了人类玩家,证明了其在模拟复杂环境中处理细节和进行决策的能力。

来自主题: AI技术研报
5107 点击    2024-11-18 15:24
Grok 3证明黎曼猜想,训练遭灾难性事件?数学家称不夸张,两年内AI将解出千禧年难题

Grok 3证明黎曼猜想,训练遭灾难性事件?数学家称不夸张,两年内AI将解出千禧年难题

Grok 3证明黎曼猜想,训练遭灾难性事件?数学家称不夸张,两年内AI将解出千禧年难题

最近,大家都被这条消息吓到了:传说Grok 3已经成功证明出黎曼猜想?!虽然这是在玩梗,但还是让我们来仔细剖析下,目前的AI距离千禧年数学难题,究竟还有多远。

来自主题: AI技术研报
5540 点击    2024-11-18 15:20
NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。

来自主题: AI技术研报
4351 点击    2024-11-18 14:54
从未见过现实世界数据,MIT在虚拟环境中训练出机器狗,照样能跑酷

从未见过现实世界数据,MIT在虚拟环境中训练出机器狗,照样能跑酷

从未见过现实世界数据,MIT在虚拟环境中训练出机器狗,照样能跑酷

如今,机器人学习最大的瓶颈是缺乏数据。与图片和文字相比,机器人的学习数据非常稀少。目前机器人学科的主流方向是通过扩大真实世界中的数据收集来尝试实现通用具身智能,但是和其他的基础模型,比如初版的 StableDiffusion 相比,即使是 pi 的数据都会少七八个数量级。

来自主题: AI技术研报
7245 点击    2024-11-18 09:14
突破无规则稀疏计算边界,编译框架CROSS数倍提升模型性能

突破无规则稀疏计算边界,编译框架CROSS数倍提升模型性能

突破无规则稀疏计算边界,编译框架CROSS数倍提升模型性能

在现代 AI 模型的快速迭代中,如何在保持模型精度的同时提升计算效率成为关键课题。尤其在大规模 AI 推理中,非结构化稀疏矩阵的计算效率低下成为难以突破的瓶颈。面对这一挑战,我们自主研发了 CROSS—— 一种创新的端到端稀疏编译优化方案,为 AI 推理带来细粒度稀疏计算的加速效果。

来自主题: AI技术研报
5972 点击    2024-11-18 09:01
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈

Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈

Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈

哈佛斯坦福MIT等机构首次提出「精度感知」scaling law,揭示了精度、参数规模、数据量之间的统一关系。数据量增加,模型对量化精度要求随之提高,这预示着AI领域低精度加速的时代即将结束!

来自主题: AI技术研报
6910 点击    2024-11-17 14:26
视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

卡内基梅隆大学提出了视频生成模型加速方法Run-Length Tokenization(RLT),被NeurIPS 2024选为Spotlight论文。 在精度几乎没有损失的前提下,RLT可以让模型训练和推理速度双双提升。

来自主题: AI技术研报
5602 点击    2024-11-17 14:10
Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

最近,Nature上的一项研究,全面驳斥了LLM具有类人推理能力的说法。研究者设定的「人类亲吻难题」把7个大模型彻底绕晕。最终研究者表示,与其说LLM是科学理论,不如说它们更接近工具,比如广义导数。

来自主题: AI技术研报
8041 点击    2024-11-16 15:52
过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%

通过过程奖励模型(PRM)在每一步提供反馈,并使用过程优势验证器(PAV)来预测进展,从而优化基础策略,该方法在测试时搜索和在线强化学习中显示出比传统方法更高的准确性和计算效率,显著提升了解决复杂问题的能力。

来自主题: AI技术研报
5242 点击    2024-11-16 15:41
NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

NeurIPS 2024 | 无需训练,一个框架搞定开放式目标检测、实例分割

本文介绍了来自北京大学王选计算机研究所的王勇涛团队的最新研究成果 VL-SAM。针对开放场景,该篇工作提出了一个基于注意力图提示的免训练开放式目标检测和分割框架 VL-SAM,在无需训练的情况下,取得了良好的开放式 (Open-ended) 目标检测和实例分割结果,论文已被 NeurIPS 2024 录用。

来自主题: AI技术研报
2896 点击    2024-11-16 15:21
率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

率先解决多类数据同时受损,中科大MIRA团队TRACER入选NeurIPS 2024:强鲁棒性的离线变分贝叶斯强化学习

近日,中科大王杰教授团队 (MIRA Lab) 针对离线强化学习数据集存在多类数据损坏这一复杂的实际问题,提出了一种鲁棒的变分贝叶斯推断方法,有效地提升了智能决策模型的鲁棒性,为机器人控制、自动驾驶等领域的鲁棒学习奠定了重要基础。论文发表在 CCF-A 类人工智能顶级会议 Neural Information Processing Systems(NeurIPS 2024)。

来自主题: AI技术研报
2899 点击    2024-11-16 15:13
使用LLM结合金融数据和新闻文章预测股票价格

使用LLM结合金融数据和新闻文章预测股票价格

使用LLM结合金融数据和新闻文章预测股票价格

预测金融市场和股票价格变动需分析公司表现、历史价格、行业事件及人类因素(如社交媒体和新闻报道)。

来自主题: AI技术研报
6026 点击    2024-11-16 14:38
集成500+多模态现实任务!全新MEGA-Bench评测套件:CoT对开源模型反而有害?

集成500+多模态现实任务!全新MEGA-Bench评测套件:CoT对开源模型反而有害?

集成500+多模态现实任务!全新MEGA-Bench评测套件:CoT对开源模型反而有害?

MEGA-Bench是一个包含500多个真实世界任务的多模态评测套件,为全面评估AI模型提供了高效工具。研究人员发现,尽管顶级AI模型在多个任务中表现出色,但在复杂推理和跨模态理解方面仍有提升空间。

来自主题: AI技术研报
7087 点击    2024-11-15 15:37
NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

NeurIPS 2024 Spotlight | 如何操纵时间序列预测结果?BackTime:全新的时间序列后门攻击范式

这篇文章获选 Neurips 2024 Spotlight,作者均来自于伊利诺伊大学香槟分校计算机系。第一作者是博士生林啸,指导老师是童行行教授。所在的 IDEA 实验室的研究兴趣涵盖图机器学习、可信机器学习、LLM 优化以及数据挖掘等方面。

来自主题: AI技术研报
4457 点击    2024-11-15 15:34
Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Sora 的发布让广大研究者及开发者深刻认识到基于 Transformer 架构扩散模型的巨大潜力。作为这一类的代表性工作,DiT 模型抛弃了传统的 U-Net 扩散架构,转而使用直筒型去噪模型。鉴于直筒型 DiT 在隐空间生成任务上效果出众,后续的一些工作如 PixArt、SD3 等等也都不约而同地使用了直筒型架构。

来自主题: AI技术研报
2884 点击    2024-11-15 15:09
最近几年TOP100的AI论文背后,揭示了硅谷科技创新的一个新配方……

最近几年TOP100的AI论文背后,揭示了硅谷科技创新的一个新配方……

最近几年TOP100的AI论文背后,揭示了硅谷科技创新的一个新配方……

最近,专注做AI转型的Zeta Alpha对2023年引用次数最多的 AI 论文进行了排名,列出了影响力最高的100篇论文,引发了业界热议,并且就论文的机构也做了一个梳理。

来自主题: AI技术研报
5882 点击    2024-11-15 10:51