AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

多年来,浙江大学周晟老师团队与阿里安全交互内容安全团队持续开展产学研合作。近日,双⽅针对标签噪声下图神经⽹络的联合研究成果《NoisyGL:标签噪声下图神经网络的综合基准》被 NeurIPS Datasets and Benchmarks Track 2024 收录。本次 NeurIPS D&B Track 共收到 1820 篇投稿,录⽤率为 25.3%。

来自主题: AI技术研报
5359 点击    2024-10-21 14:42
深度|如何最大化 GPU 利用效率,让 ROI 最大化?

深度|如何最大化 GPU 利用效率,让 ROI 最大化?

深度|如何最大化 GPU 利用效率,让 ROI 最大化?

前不久在人工智能的帮助下,两位科学家获得了诺贝尔物理学奖。可以说人工智能已经在很多领域被广泛应用了。随着大语言模型(LLM)和深度学习的广泛应用,GPU 也已成为机器学习工程师和研究人员最重要的计算资源之一。

来自主题: AI资讯
8589 点击    2024-10-21 14:14
颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!

比传统MoE推理速度更快、性能更高的新一代架构,来了! 这个通用架构叫做MoE++,由颜水成领衔的昆仑万维2050研究院与北大袁粒团队联合提出。

来自主题: AI技术研报
5268 点击    2024-10-21 11:22
低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

内存占用小,训练表现也要好……大模型训练成功实现二者兼得。 来自北理、北大和港中文MMLab的研究团队提出了一种满足低秩约束的大模型全秩训练框架——Fira,成功打破了传统低秩方法中内存占用与训练表现的“非此即彼”僵局。

来自主题: AI技术研报
4819 点击    2024-10-21 10:58
对话诺奖评委:授予辛顿物理学奖引发对AI风险的关注,是好的副作用

对话诺奖评委:授予辛顿物理学奖引发对AI风险的关注,是好的副作用

对话诺奖评委:授予辛顿物理学奖引发对AI风险的关注,是好的副作用

2024年诺贝尔物理学奖的结果引发了广泛的讨论,原因是其中一位获奖者Geoffrey Hinton(杰弗里·辛顿),并非是传统意义上的物理学家,而是一位极具声望的人工智能研究科学家,被誉为深度神经网络的奠基人和人工智能“教父”。

来自主题: AI资讯
5052 点击    2024-10-21 10:46
开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

简单高效的大模型检索增强系统LightRAG,香港大学黄超团队最新研究成果。 开源两周时间在GitHub上获得将近5k标星,并登上趋势榜。

来自主题: AI技术研报
5569 点击    2024-10-21 10:23
大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多

近日,来自谷歌和苹果的研究表明:AI模型掌握的知识比表现出来的要多得多!这些真实性信息集中在特定的token中,利用这一属性可以显著提高检测LLM错误输出的能力。

来自主题: AI技术研报
4226 点击    2024-10-20 17:16
132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

牛顿没解决的问题,AI给你解决了? AI的推理能力一直是研究的焦点。作为最纯粹、要求最高的推理形式之一,能否解决高级的数学问题,无疑是衡量语言模型推理水平的一把尺。

来自主题: AI技术研报
4568 点击    2024-10-20 16:41
OpenAI前CTO被曝吸金7亿创业,招聘首先挖角老东家

OpenAI前CTO被曝吸金7亿创业,招聘首先挖角老东家

OpenAI前CTO被曝吸金7亿创业,招聘首先挖角老东家

OpenAI前CTO Mira Murati出走后,动向进一步明确—— 被曝筹备新公司,吸金超1亿美元(约合7亿人民币),且和她同一天离开OpenAI的Barret Zoph(前研究副总裁)也可能入局。

来自主题: AI资讯
3627 点击    2024-10-20 11:35
苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判死刑

苹果研究者发现:无论是OpenAI GPT-4o和o1,还是Llama、Phi、Gemma和Mistral等开源模型,都未被发现任何形式推理的证据,而更像是复杂的模式匹配器。无独有偶,一项多位数乘法的研究也被抛出来,越来越多的证据证实:LLM不会推理!

来自主题: AI技术研报
4990 点击    2024-10-19 16:32