AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘

LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘

LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘

自从 Sora 横空出世,业界便掀起了一场「视频生成模型到底懂不懂物理规律」的争论。图灵奖得主 Yann LeCun 明确表示,基于文本提示生成的逼真视频并不代表模型真正理解了物理世界。之后更是直言,像 Sora 这样通过生成像素来建模世界的方式注定要失败。

来自主题: AI技术研报
3831 点击    2024-11-08 19:14
文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

最近,来自上海大学、山东大学和埃默里大学等机构的研究人员首次提出了文本边图的数据集与基准,包括9个覆盖4个领域的大规模文本边图数据集,以及一套标准化的文本边图研究范式。该研究的发表极大促进了文本边图图表示学习的研究,有利于自然语言处理与图数据挖掘领域的深度合作。

来自主题: AI技术研报
3074 点击    2024-11-08 14:20
MME-Finance:来自同花顺的金融领域多模态模型专业评估基准

MME-Finance:来自同花顺的金融领域多模态模型专业评估基准

MME-Finance:来自同花顺的金融领域多模态模型专业评估基准

MME-Finance 是一个专为金融领域设计的多模态基准测试,由同花顺财经旗下的 HiThink 研究团队联合多家高校共同开发,旨在评估和提升多模态大型语言模型(MLLMs)在金融领域的专业理解和推理能力。

来自主题: AI资讯
3252 点击    2024-11-08 14:06
针对医学图像分割的基础模型应用探索

针对医学图像分割的基础模型应用探索

针对医学图像分割的基础模型应用探索

来自美国医学院的研究团队聚焦于医学图像分割领域中人工智能基础模型的开发与应用,提供了一个全面的基础模型开发框架。

来自主题: AI技术研报
3717 点击    2024-11-08 13:51
马斯克的Grok API 编程能力大超预期!

马斯克的Grok API 编程能力大超预期!

马斯克的Grok API 编程能力大超预期!

技术大牛Harrison Kinsley(@Sentdex)刚刚完成了对XAI的Grok-beta模型的基准测试,测试结果远超预期。

来自主题: AI资讯
3424 点击    2024-11-08 10:19
全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

在Prompt工程领域,规划任务一直以来都是一个巨大的挑战,因为这要求大语言模型(LLMs)不仅能够理解自然语言,还能有效执行复杂推理和应对长时间跨度的操作。

来自主题: AI资讯
3594 点击    2024-11-08 10:16
独家|边塞科技被收购,曾获真格投资,创始人曾在OpenAI任职

独家|边塞科技被收购,曾获真格投资,创始人曾在OpenAI任职

独家|边塞科技被收购,曾获真格投资,创始人曾在OpenAI任职

近日,蓝鲸新闻记者独家获悉,大模型赛道初创公司边塞科技近日被收购,收购方可能为某大厂,边塞科技曾在天使轮获真格基金投资。边塞科技也成为了国内第二家被收购的AI公司。

来自主题: AI资讯
8103 点击    2024-11-07 21:13
50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

消除激活值(outliers),大语言模型低比特量化有新招了—— 自动化所、清华、港城大团队最近有一篇论文入选了NeurIPS 2024(Oral Presentation),他们针对LLM权重激活量化提出了两种正交变换,有效降低了outliers现象,达到了4-bit的新SOTA。

来自主题: AI技术研报
3762 点击    2024-11-07 20:51
免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

现在,视频生成模型无需训练即可加速了?! Meta提出了一种新方法AdaCache,能够加速DiT模型,而且是无需额外训练的那种(即插即用)。

来自主题: AI技术研报
3200 点击    2024-11-07 20:43