AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型,而是开始针对推理过程进行优化了。今天我们介绍的这项来自 Meta FAIR 田渊栋团队的研究也是如此,其从人类认知理论中获得了灵感,提出了一种新型 Transformer 架构:Dualformer。

来自主题: AI技术研报
5687 点击    2024-10-16 15:56
重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

近日,来自斯坦福、MIT、纽约大学和Meta-FAIR等机构的研究人员,通过新的研究重新定义了最大流形容量表示法(MMCR)的可能性。

来自主题: AI技术研报
5729 点击    2024-10-16 15:44
机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

TeleAI 李学龙团队提出具身世界模型,挖掘大量人类操作视频和少量机器人数据的共同决策模式。

来自主题: AI技术研报
5263 点击    2024-10-16 14:31
OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

OpenAI最新53页论文:ChatGPT看人下菜碟,对“小美”比“小帅”更友好

AI对待每个人类都一视同仁吗? 现在OpenAI用53页的新论文揭示:ChatGPT真的会看人下菜碟。 根据用户的名字就自动推断出性别、种族等身份特征,并重复训练数据中的社会偏见。

来自主题: AI技术研报
4732 点击    2024-10-16 14:20
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
8000 点击    2024-10-15 19:22
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

在大语言模型(LLMs)后训练任务中,由于高质量的特定领域数据十分稀缺,合成数据已成为重要资源。虽然已有多种方法被用于生成合成数据,但合成数据的理论理解仍存在缺口。为了解决这一问题,本文首先对当前流行的合成数据生成过程进行了数学建模。

来自主题: AI技术研报
7999 点击    2024-10-15 18:38
百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

Robin3D通过鲁棒指令数据生成引擎(RIG)生成的大规模数据进行训练,以提高模型在3D场景理解中的鲁棒性和泛化能力,在多个3D多模态学习基准测试中取得了优异的性能,超越了以往的方法,且无需针对特定任务的微调。

来自主题: AI技术研报
8093 点击    2024-10-15 14:39
Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

Benchmark合伙人:训练大模型目前成本远大于收入;但理论上成功回报极大,所以你仍需不断加注

随着LLM的进步,它将超越代码补全(“Copilot”)的功能,进入代码创作(“Autopilot”)的领域。随着LLM变得越来越复杂,它们能够释放的经济价值也会越来越大。AGI的经济价值仅受我们的想象力限制。

来自主题: AI资讯
4703 点击    2024-10-15 14:01