AI资讯新闻榜单内容搜索-FAIR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: FAIR
北大校友造通用AI Agent,可执行1000个操作,无邀请码立即上手试用

北大校友造通用AI Agent,可执行1000个操作,无邀请码立即上手试用

北大校友造通用AI Agent,可执行1000个操作,无邀请码立即上手试用

北大校友官宣推出号称“最强通用Agent” Fairies(中译仙女),能执行Deep research、代码生成、发邮件等1000个操作。关键是无需邀请码,Mac和Windows用户只需下载APP就能立即上手试玩。(⊙ˍ⊙)

来自主题: AI资讯
8745 点击    2025-06-01 22:10
刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

面对谷歌、OpenAI等劲敌猛攻及Llama 4翻车、人才流失困境,小扎决定重组Meta GenAI团队,设AI产品、AGI基础和FAIR三大架构。

来自主题: AI资讯
3634 点击    2025-05-28 16:09
一个「always」站在大模型技术C位的传奇男子

一个「always」站在大模型技术C位的传奇男子

一个「always」站在大模型技术C位的传奇男子

怎么老是你???(How old are you)尤其是最近Meta FAIR研究员朱泽园分享了他们《Physics of Language Models》项目的系列新进展后,有网友发现,其中提到的3-token因果卷积相关内容,沙哥等又早在三年前就有相关研究。这是最近网友不断对着Transformer八子之一的Noam Shazeer(为方便阅读,我们称他为沙哥)发出的灵魂疑问。

来自主题: AI资讯
8953 点击    2025-05-11 15:02
浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

简单的任务,传统的Transformer却错误率极高。Meta FAIR团队重磅推出多token注意力机制(MTA),精准捕捉复杂信息,带来模型性能飞升!

来自主题: AI技术研报
5688 点击    2025-04-04 14:14
Meta 公布机器人触觉感知能力研究成果:利用手指传感器结合“AI 大脑”理解 / 操作外界物体

Meta 公布机器人触觉感知能力研究成果:利用手指传感器结合“AI 大脑”理解 / 操作外界物体

Meta 公布机器人触觉感知能力研究成果:利用手指传感器结合“AI 大脑”理解 / 操作外界物体

Meta 发布新闻稿,介绍了旗下 FAIR(基础人工智能研究)团队对于机器人触觉感知能力的研究情况,这项研究旨在让机器人通过触觉方式进一步理解和操作外界物体。

来自主题: AI资讯
6192 点击    2024-11-04 21:21
补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型,而是开始针对推理过程进行优化了。今天我们介绍的这项来自 Meta FAIR 田渊栋团队的研究也是如此,其从人类认知理论中获得了灵感,提出了一种新型 Transformer 架构:Dualformer。

来自主题: AI技术研报
3555 点击    2024-10-16 15:56
重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

近日,来自斯坦福、MIT、纽约大学和Meta-FAIR等机构的研究人员,通过新的研究重新定义了最大流形容量表示法(MMCR)的可能性。

来自主题: AI技术研报
4215 点击    2024-10-16 15:44
Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

Meta浙大校友让评估模型「自学成才」,数据全合成无需人工标注,训练Llama 3 70B超过405B

随着LLM不断迭代,偏好和评估数据中大量的人工标注逐渐成为模型扩展的显著障碍之一。Meta FAIR的团队最近提出了一种使用迭代式方法「自学成才」的评估模型训练方法,让70B参数的Llama-3-Instruct模型分数超过了Llama 3.1-405B。

来自主题: AI资讯
4367 点击    2024-08-26 09:52