AI资讯新闻榜单内容搜索-Al

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Al
清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

随着诺贝尔物理学奖颁给了「机器学习之父」Geoffrey Hinton,另一个借鉴物理学概念的模型架构也横空出世——微软清华团队的最新架构Differential Transformer,从注意力模块入手,实现了Transformer的核心能力提升。

来自主题: AI技术研报
7836 点击    2024-10-10 14:24
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

随着大规模语言模型的快速发展,如 GPT、Claude 等,LLM 通过预训练海量的文本数据展现了惊人的语言生成能力。然而,即便如此,LLM 仍然存在生成不当或偏离预期的结果。这种现象在推理过程中尤为突出,常常导致不准确、不符合语境或不合伦理的回答。为了解决这一问题,学术界和工业界提出了一系列对齐(Alignment)技术,旨在优化模型的输出,使其更加符合人类的价值观和期望。

来自主题: AI技术研报
8035 点击    2024-10-10 12:21
又融2.6亿,估值达46亿美元的Glean正在成为企业AI的领导者

又融2.6亿,估值达46亿美元的Glean正在成为企业AI的领导者

又融2.6亿,估值达46亿美元的Glean正在成为企业AI的领导者

在现代社会中,Wealthsimple、SUPER、webflow、duolingo、CONFLUENT、upside、CONTINO等多家企业都曾面临信息过载和知识孤岛的挑战。

来自主题: AI资讯
3912 点击    2024-10-10 11:18
Not Boring Capital创始人:AI是新石油,而非上帝,发现、钻探、提炼、分发AI将重塑世界

Not Boring Capital创始人:AI是新石油,而非上帝,发现、钻探、提炼、分发AI将重塑世界

Not Boring Capital创始人:AI是新石油,而非上帝,发现、钻探、提炼、分发AI将重塑世界

AI发展的乐观预期落于“金发姑娘区域”:人类正处于一个幸运的“金发姑娘区域”,在AI的发展上,我们可能会达到一个完美平衡点。在这个区域,AI作为工具的能力不断增强,但它们不会获得超越或取代人类的自主性和意图。“情境意识”理论提出AI的进步可能会在2027年达到AGI,但Not Boring Capital 创始人Packy McCormick认为我们更可能走向一个AI作为有力助手的未来。

来自主题: AI资讯
6283 点击    2024-10-09 12:30
深度|李飞飞:AI十年,公众看到的是一些离散事件,而我们则看到一个连续过程

深度|李飞飞:AI十年,公众看到的是一些离散事件,而我们则看到一个连续过程

深度|李飞飞:AI十年,公众看到的是一些离散事件,而我们则看到一个连续过程

Alexnet对人工智能世界具有象征意义,因为现代人工智能的三个基本要素第一次汇聚在一起,第一个要素是神经网络,第二个要素是大数据,即使用ImageNet,第三个要素是GPU计算......

来自主题: AI资讯
6639 点击    2024-10-09 12:20
Radical Ventures合伙人:挖掘Agents的四大重要创业机会

Radical Ventures合伙人:挖掘Agents的四大重要创业机会

Radical Ventures合伙人:挖掘Agents的四大重要创业机会

如果您正在探寻人工智能未来的辉煌篇章,那么答案就在这里。 OpenAI的领导者Sam Altman和Greg Brockman最近表示:“现在正是我们展望未来的最佳时机。”他们预见了一个新时代,用户将不再只是与单一的模型对话,而是与由众多多模态模型和工具构成的系统互动,这些系统能够代表用户执行操作。

来自主题: AI资讯
3662 点击    2024-10-09 11:06
「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

Transformer计算,竟然直接优化到乘法运算了。MIT两位华人学者近期发表的一篇论文提出:Addition is All You Need,让LLM的能耗最高降低95%。

来自主题: AI技术研报
4148 点击    2024-10-08 17:32