AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
让大模型能听会说,国内机构开源全球首个端到端语音对话模型Mini-Omni

让大模型能听会说,国内机构开源全球首个端到端语音对话模型Mini-Omni

让大模型能听会说,国内机构开源全球首个端到端语音对话模型Mini-Omni

本文出自启元世界多模态算法组,共同一作是来自清华大学的一年级硕士生谢之非与启元世界多模态负责人吴昌桥,研究兴趣为多模态大模型、LLM Agents 等。本论文上线几天内在 github 上斩获 1000+ 星标。

来自主题: AI技术研报
7848 点击    2024-09-07 11:04
LLM 进化分岔口:多模态、成本、代码推理

LLM 进化分岔口:多模态、成本、代码推理

LLM 进化分岔口:多模态、成本、代码推理

头部模型的新一代模型的是市场观测、理解 LLM 走向的风向标。即将发布的 OpenAI GPT-Next 和 Anthropic Claude 3.5 Opus 无疑是 AGI 下半场最关键的事件。

来自主题: AI资讯
7592 点击    2024-09-06 11:44
从目前国内LLM模型公司八卦谈起

从目前国内LLM模型公司八卦谈起

从目前国内LLM模型公司八卦谈起

我个人不是喜欢打听这些公司八卦的人,前些年移动互联网时代就已经有太多这样的小道消息,但最终都没有没什么用。重要的信息迟早会变成公开,最多晚几个月而已,又不是要考虑抢时间窗口投这些公司,花时间去探究ROI不高。

来自主题: AI资讯
6500 点击    2024-09-05 22:15
Unstructured.io:让企业非结构化数据 LLM-Ready

Unstructured.io:让企业非结构化数据 LLM-Ready

Unstructured.io:让企业非结构化数据 LLM-Ready

企业要用好 LLM 离不开高质量数据。和传统机器学习模型相比,LLM 对于数据需求量更大、要求更高,尤其是非结构化数据。而传统 ETL 工具并不擅长非结构化数据的处理,因此,企业在部署 LLM 的过程中,数据科学家们往往要耗费大量的时间精力在数据处理环节。这一环节既关系到 LLM 部署的效率和质量,也对数据科学家人力的 ROI 产生影响。

来自主题: AI资讯
9541 点击    2024-09-05 10:02
清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

清华EconAgent获ACL 2024杰出论文:大模型智能体革新计算经济学研究范式

近日,清华大学电子系城市科学与计算研究中心的研究论文《EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities》获得自然语言处理顶会 ACL 2024杰出论文奖(Outstanding Paper Award)。

来自主题: AI技术研报
7660 点击    2024-09-04 15:53
用最直观的动画,讲解LLM如何存储事实,3Blue1Brown的这个视频又火了

用最直观的动画,讲解LLM如何存储事实,3Blue1Brown的这个视频又火了

用最直观的动画,讲解LLM如何存储事实,3Blue1Brown的这个视频又火了

向大模型输入「Michael Jordan plays the sport of _____(迈克尔・乔丹从事的体育运动是……)」,然后让其预测接下来的文本,那么大模型多半能正确预测接下来是「basketball(篮球)」。

来自主题: AI技术研报
6994 点击    2024-09-02 14:48
LLM的范式转移:RL带来新的 Scaling Law

LLM的范式转移:RL带来新的 Scaling Law

LLM的范式转移:RL带来新的 Scaling Law

从几周前 Sam Altman 在 X 上发布草莓照片开始,整个行业都在期待 OpenAI 发布新模型。根据 The information 的报道,Strawberry 就是之前的 Q-star,其合成数据的方法会大幅提升 LLM 的智能推理能力,尤其体现在数学解题、解字谜、代码生成等复杂推理任务。这个方法也会用在 GPT 系列的提升上,帮助 OpenAI 新一代 Orion。

来自主题: AI资讯
7848 点击    2024-08-31 11:19
GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴!

GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴!

GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴!

LLM若以每秒1000+token高速推理,当前最先进的GPU根本无法实现!Cerebras Inference一出世,推理速度赶超英伟达GPU,背靠自研的世界最大芯片加持。而且,还将推理价格打了下来。

来自主题: AI资讯
5322 点击    2024-08-28 18:16