AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

Meta最近开源了多个AI项目,包括图像分割模型SAM 2.1、多模态语言模型Spirit LM、自学评估器和改进的跨语言句子编码器Mexma等,提升了AI在图像处理和语音识别领域的能力,进一步推动了AI研究的进展。

来自主题: AI技术研报
9910 点击    2024-11-27 16:50
Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

什么?Scaling Law最早是百度2017年提的?! Meta研究员翻出经典论文: 大多数人可能不知道,Scaling law原始研究来自2017年的百度,而非三年后(2020年)的OpenAI。

来自主题: AI资讯
6566 点击    2024-11-27 14:20
微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

这篇文章研究了提示格式对大型语言模型(LLM)性能的影响。

来自主题: AI技术研报
6526 点击    2024-11-27 13:48
微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

近期,微软研究团队发布了一项重要的研究成果,揭示了AI推理能力从传统的提示工程方法(如Medprompt)到原生推理机制(如OpenAI的o1)演进的全貌。此项研究为正在开发AI产品的朋友们提供了宝贵的技术洞察。本文将详细分析这一研究的过程和结论,探讨其对AI推理领域及产品开发的深远影响。

来自主题: AI技术研报
6613 点击    2024-11-27 09:25
创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

本周一,知名 AI 学者、前谷歌大脑高级研究科学家 Yi Tay 在短短一年半的创业之后官宣回到谷歌,他显得很高兴。

来自主题: AI资讯
5780 点击    2024-11-26 14:13
UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

如果给LLM做MBTI,会得到什么结果?UC伯克利的最新研究就发现,不同模型真的有自己独特的性格

来自主题: AI技术研报
7322 点击    2024-11-26 13:59
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

北京大学研究团队开发的FAN模型能有效捕捉数据中的周期性模式,相比传统模型在多项任务中表现出色,同时降低了参数量和计算量,增强了对周期性特征的建模能力,应用潜力广泛。

来自主题: AI技术研报
6393 点击    2024-11-26 13:43
大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

在人工智能领域,大语言模型(LLM)的向量嵌入能力一直被视为处理文本数据的利器。然而,斯坦福大学和Google DeepMind的研究团队带来了一个颠覆性发现:LLM的向量嵌入能力可以有效应用于回归任务。

来自主题: AI技术研报
6625 点击    2024-11-26 09:04
OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

Scaling Law撞墙了吗?OpenAI高级研究副总裁Mark Chen正式驳斥了这一观点。他表示,OpenAI已经有o系列和GPT系列两个模型,来让模型继续保持Scaling。

来自主题: AI资讯
6024 点击    2024-11-25 15:03