AITNT-让一部分人先用AI实现商业化

AI资讯-这里有最及时全面的人工智能资讯报道

AI技术研报-这里有最前沿的人工智能技术解读

AI监管政策-这里有最深刻的人工智能政策解读

AI产品测评-这里有最详细的人工智能工具测评解析

AI商业项目-这里有洞察力最强的AI项目的商业逻辑解析

AI排行榜-这里有最新的AI产品,大模型等人工智能行业的排行榜单

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
最新文章
AI正污染我们的世界

AI正污染我们的世界

AI正污染我们的世界

《黑神话:悟空》上线之后,各大资讯平台出现一批奇怪文章。它们开篇讲“震惊”,全文说“震撼”,然而没评测、没细节、没结论,如大圣爷毫毛化猴,面目雷同又空空如也,最后汇入百亿流量之中。

来自主题: AI资讯
5224 点击    2024-08-24 11:38
美国要对做AI的华人“清理门户”了吗?

美国要对做AI的华人“清理门户”了吗?

美国要对做AI的华人“清理门户”了吗?

7月底,市场调研机构Sensor Tower发布了今年上半年美国AI产品下载量排行榜前十名。在这个榜单中,有三个是作业帮和MimiMax等中国公司的产品。

来自主题: AI资讯
5424 点击    2024-08-24 11:35
LV老板的家办,一口气投了5家AI公司

LV老板的家办,一口气投了5家AI公司

LV老板的家办,一口气投了5家AI公司

“将各个行业的所有瑰宝都集中在自己的投资组合中”

来自主题: AI资讯
5331 点击    2024-08-24 10:59
带飞联想AI PC的,未必是AI

带飞联想AI PC的,未必是AI

带飞联想AI PC的,未必是AI

端侧大模型的真实需求仍需验证。

来自主题: AI资讯
5263 点击    2024-08-24 10:56
浅谈领域模型训练

浅谈领域模型训练

浅谈领域模型训练

这篇文章对如何进行领域模型训练进行一个简单的探讨,主要内容是对 post-pretrain 阶段进行分析,后续的 Alignment 阶段就先不提了,注意好老生常谈的“数据质量”和“数据多样性”即可。

来自主题: AI技术研报
9645 点击    2024-08-24 10:54
Transformer核心作者重返谷歌,任Gemini联合技术负责人!联手Jeff Dean追赶竞敌

Transformer核心作者重返谷歌,任Gemini联合技术负责人!联手Jeff Dean追赶竞敌

Transformer核心作者重返谷歌,任Gemini联合技术负责人!联手Jeff Dean追赶竞敌

被谷歌买下的AI独角兽Character.AI,已与团队深度融合。Transformer核心作者、创始人之一Noam Shazeer将担任Gemini联合技术负责人,与Jeff Dean和Oriol Vinyals平起平坐。

来自主题: AI技术研报
9280 点击    2024-08-24 10:50
陈天桥联手Science推AI驱动科学大奖!千字论文抱走3万美金,挖掘诺奖潜力股

陈天桥联手Science推AI驱动科学大奖!千字论文抱走3万美金,挖掘诺奖潜力股

陈天桥联手Science推AI驱动科学大奖!千字论文抱走3万美金,挖掘诺奖潜力股

AI大佬陈天桥,联手Science官宣设立AI驱动科学大奖!评奖征集内容为1000字左右的论文,大奖和优胜者会分获3万美元和1万美元的奖励,截止时间为2024年12月13日。

来自主题: AI技术研报
10352 点击    2024-08-24 10:46
Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba是第一个基于 Mamba 架构的生产级模型。Mamba 是由卡内基梅隆大学和普林斯顿大学的研究人员提出的新架构,被视为 Transformer 架构的有力挑战者。

来自主题: AI资讯
7996 点击    2024-08-24 10:07
谷歌搜索引擎全面揭秘!近百份文档泄露,博主爆肝数周逆向工程

谷歌搜索引擎全面揭秘!近百份文档泄露,博主爆肝数周逆向工程

谷歌搜索引擎全面揭秘!近百份文档泄露,博主爆肝数周逆向工程

继5月的文件泄露事件后,谷歌的搜索引擎又被掀了个底朝天。不仅DeepMind发论文解释了Vizier系统的机制,博客作者Mario Fischer还对近百份文档做了彻底的调研分析,为我们还原了这个互联网巨兽的全貌。

来自主题: AI资讯
6561 点击    2024-08-23 18:30
如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

神经网络是一种灵活且强大的函数近似方法。而许多应用都需要学习一个相对于某种对称性不变或等变的函数。图像识别便是一个典型示例 —— 当图像发生平移时,情况不会发生变化。等变神经网络(equivariant neural network)可为学习这些不变或等变函数提供一个灵活的框架。

来自主题: AI技术研报
8430 点击    2024-08-23 18:10
国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

以 GPT 为代表的大型语言模型预示着数字认知空间中通用人工智能的曙光。这些模型通过处理和生成自然语言,展示了强大的理解和推理能力,已经在多个领域展现出广泛的应用前景。无论是在内容生成、自动化客服、生产力工具、AI 搜索、还是在教育和医疗等领域,大型语言模型都在不断推动技术的进步和应用的普及。

来自主题: AI资讯
9433 点击    2024-08-23 17:27
LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

Emory大学的研究团队提出了一种创新的方法,将大语言模型(LLM)在文本图(Text-Attributed Graph, 缩写为TAG)学习中的强大能力蒸馏到本地模型中,以应对文本图学习中的数据稀缺、隐私保护和成本问题。通过训练一个解释器模型来理解LLM的推理过程,并对学生模型进行对齐优化,在多个数据集上实现了显著的性能提升,平均提高了6.2%。

来自主题: AI技术研报
10276 点击    2024-08-23 16:35
AITNT官方交流群 AITNT APP上线