AI资讯新闻榜单内容搜索-大模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模型
35 家央国企已落地 66 个大模型,国家队引领AI 变革

35 家央国企已落地 66 个大模型,国家队引领AI 变革

35 家央国企已落地 66 个大模型,国家队引领AI 变革

自2023年以来,国资委多次对中央企业发展人工智能提出要求。其中,在2024年2月的中央企业人工智能专题推进会上,提出中央企业要“开展AI+专项行动”。会上就有10家央企签署倡议书,表示将主动向社会开放人工智能应用场景

来自主题: AI资讯
5929 点击    2024-11-23 10:16
仅仅一天,Gemini就夺回了GPT-4o拿走的头名

仅仅一天,Gemini就夺回了GPT-4o拿走的头名

仅仅一天,Gemini就夺回了GPT-4o拿走的头名

太卷了,大模型迭代开始以「周」为单位了吗?

来自主题: AI资讯
3379 点击    2024-11-22 17:42
全球十亿级轨迹点驱动,首个轨迹基础大模型来了

全球十亿级轨迹点驱动,首个轨迹基础大模型来了

全球十亿级轨迹点驱动,首个轨迹基础大模型来了

在智慧城市和大数据时代背景下,人类轨迹数据的分析对于交通优化、城市管理、物流配送等关键领域具有重要意义。然而,现有的轨迹相关模型往往受限于特定任务、区域依赖、轨迹数据规模和多样性困乏等问题,限制了模型的泛化能力和实际应用范围。

来自主题: AI技术研报
9812 点击    2024-11-22 17:21
大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会照搬训练数据中的数学推理,回答事实问题和推理问题的「思路」也不一样。

来自主题: AI技术研报
8128 点击    2024-11-22 16:53
DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

在多模态AI领域,基于预训练视觉编码器与MLLM的方法(如LLaVA系列)在视觉理解任务上展现出卓越性能。

来自主题: AI技术研报
9452 点击    2024-11-22 15:54
汽车上的《Her》:模型竟然想做个人了,甩掉机械感,让灵魂有趣,来自吉利的全新尝试

汽车上的《Her》:模型竟然想做个人了,甩掉机械感,让灵魂有趣,来自吉利的全新尝试

汽车上的《Her》:模型竟然想做个人了,甩掉机械感,让灵魂有趣,来自吉利的全新尝试

今天,如果你身边有这样一个对话大模型,它就像你身边的一个朋友,快言快语,风趣幽默,既会比喻,又会自嘲,偶尔跟你唱反调,你跟它的聊天欲望会不会更强一些呢?

来自主题: AI资讯
8578 点击    2024-11-22 15:36
写给小白的大模型入门科普

写给小白的大模型入门科普

写给小白的大模型入门科普

网上关于大模型的文章也很多,但是都不太容易看懂。小枣君今天试着写一篇,争取做到通俗易懂。

来自主题: AI资讯
6626 点击    2024-11-22 10:00
红杉资本对话Fireworks复旦华人创始人:开源和闭源模型的差距将显著缩小;小型、专门化模型正变得越来越强大

红杉资本对话Fireworks复旦华人创始人:开源和闭源模型的差距将显著缩小;小型、专门化模型正变得越来越强大

红杉资本对话Fireworks复旦华人创始人:开源和闭源模型的差距将显著缩小;小型、专门化模型正变得越来越强大

简单性可以扩展:PyTorch的成功源于其对研究人员简单性的关注,这种关注随后流向了生产环境。在Fireworks,他们在幕后拥抱了巨大的复杂性,以提供一个简单的API给开发者。这种方法让客户能够专注于创新和产品设计,而不是纠结于技术复杂性。

来自主题: AI资讯
7769 点击    2024-11-22 09:51
OpenAI看好的方向,文心智能体技术抢先爆发!

OpenAI看好的方向,文心智能体技术抢先爆发!

OpenAI看好的方向,文心智能体技术抢先爆发!

2024年世界互联网大会领先科技奖揭晓,文心智能体技术获奖!至此,百度大模型技术已连续两年获得该奖。

来自主题: AI资讯
6975 点击    2024-11-21 14:08
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

近日,来自斯坦福、MIT等机构的研究人员推出了低秩线性转换方法,让传统注意力无缝转移到线性注意力,仅需0.2%的参数更新即可恢复精度,405B大模型两天搞定!

来自主题: AI技术研报
6302 点击    2024-11-21 13:47