AI资讯新闻榜单内容搜索-

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 
3个月流量增长10倍至千万,平平无奇的AI产品在最卷赛道突围?

3个月流量增长10倍至千万,平平无奇的AI产品在最卷赛道突围?

3个月流量增长10倍至千万,平平无奇的AI产品在最卷赛道突围?

在 10 月 AI 产品榜全球访问量 Top100 榜单中,出现了一款之前没见过的产品 Submagic,该产品位列第 56,本月访问量达到 1262W,环比增幅达 119.87%。在最近已经有些固化、很少出现新产品的 AI 榜单,实属难得。

来自主题: AI资讯
9540 点击    2024-11-26 15:13
AI视频两巨头开战!Runway秒生现实大片,Luma动嘴创作电影

AI视频两巨头开战!Runway秒生现实大片,Luma动嘴创作电影

AI视频两巨头开战!Runway秒生现实大片,Luma动嘴创作电影

半小时内,两大巨头前后脚放出两大重磅更新,AI视频真是卷疯了!Runway放出生图模型Frames,一键让你拥有特定风格的世界。Luma则把文字、图像、视频全融合,只用自然交互就让脑海中画面成真。

来自主题: AI资讯
7670 点击    2024-11-26 15:09
陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

不管是编写和调试代码,还是通过函数调用来使用外部工具,又或是控制机器人,都免不了需要 LLM 生成结构化数据,也就是遵循某个特定格式(如 JSON、SQL 等)的数据。 但使用上下文无关语法(CFG)来进行约束解码的方法并不高效。针对这个困难,陈天奇团队提出了一种新的解决方案:XGrammar。

来自主题: AI资讯
8631 点击    2024-11-26 14:18
创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

创业一年半,胖了30斤,AI大佬感叹:还是回谷歌好

本周一,知名 AI 学者、前谷歌大脑高级研究科学家 Yi Tay 在短短一年半的创业之后官宣回到谷歌,他显得很高兴。

来自主题: AI资讯
5899 点击    2024-11-26 14:13
吴恩达出手,开源最新Python包,一个接口调用OpenAI等模型

吴恩达出手,开源最新Python包,一个接口调用OpenAI等模型

吴恩达出手,开源最新Python包,一个接口调用OpenAI等模型

在构建应用程序时,与多个提供商集成很麻烦,现在 aisuite 给解决了。 用相同的代码方式调用 OpenAI、Anthropic、Google 等发布的大模型,还能实现便捷的模型切换和对比测试。

来自主题: AI资讯
8471 点击    2024-11-26 14:08
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

Ai2和华盛顿大学联合Meta、CMU、斯坦福等机构发布了最新的OpenScholar系统,使用检索增强的方法帮助科学家进行文献搜索和文献综述工作,而且做到了数据、代码、模型权重的全方位开源。

来自主题: AI技术研报
6901 点击    2024-11-26 14:05
UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

如果给LLM做MBTI,会得到什么结果?UC伯克利的最新研究就发现,不同模型真的有自己独特的性格

来自主题: AI技术研报
7614 点击    2024-11-26 13:59
撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

自回归方法,在图像生成中观察到了 Scaling Law。 「Scaling Law 撞墙了?」这恐怕是 AI 社区最近讨论热度最高的话题。

来自主题: AI技术研报
6525 点击    2024-11-26 13:48
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

北京大学研究团队开发的FAN模型能有效捕捉数据中的周期性模式,相比传统模型在多项任务中表现出色,同时降低了参数量和计算量,增强了对周期性特征的建模能力,应用潜力广泛。

来自主题: AI技术研报
6589 点击    2024-11-26 13:43
炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

各位大佬,激动人心的时刻到啦!Anthropic 开源了一个革命性的新协议——MCP(模型上下文协议),有望彻底解决 LLM 应用连接数据难的痛点!它的目标是让前沿模型生成更好、更相关的响应。以后再也不用为每个数据源写定制的集成代码了,MCP 一个协议全搞定!

来自主题: AI技术研报
10790 点击    2024-11-26 11:06