AI资讯新闻榜单内容搜索-embedding

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: embedding
从多模态大模型中「拆」出音频向量模型

从多模态大模型中「拆」出音频向量模型

从多模态大模型中「拆」出音频向量模型

Google 最近发了 Gemini Embedding 2,他们第一个原生多模态向量模型。文本、图像、视频、音频、文档,全部映射到同一个 3072 维向量空间。这是 Omni Embedding(全模态向量模型)的大趋势:一个架构吃下所有模态,从 jina-embeddings-v4 到 Omni-Embed-Nemotron 再到 Omni-5,大家都在往这个方向收敛。

来自主题: AI技术研报
5306 点击    2026-03-16 15:06
谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA

谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA

谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA

谷歌发布首个原生全模态 Embedding 模型 Gemini Embedding 2!它将文本、图、音视频及 PDF 无损融于统一向量空间,实现跨越五大模态的直接检索。这极大降低了架构成本,赋予了 AI 真正连贯的「记忆」,是重塑 AI 基建的里程碑。

来自主题: AI资讯
9002 点击    2026-03-12 10:21
让龙虾看懂屏幕!谷歌多模态新成果,文本图像视频音频进同一空间

让龙虾看懂屏幕!谷歌多模态新成果,文本图像视频音频进同一空间

让龙虾看懂屏幕!谷歌多模态新成果,文本图像视频音频进同一空间

刚刚,谷歌发布了首个原生多模态(Multimodal)嵌入模型——Gemini Embedding 2。这次模型最大的变化在于:把文本、图像、视频、音频和文档,全部映射进同一个统一的嵌入空间。

来自主题: AI资讯
6671 点击    2026-03-11 16:59
jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text:0.6B 参数下最好的多语言向量模型

jina-embeddings-v5-text 岁在丙午,开年即战。Jina AI 的五代目向量模型春节期间正式发布。1B 参数内世界第一,全面刷新向量模型的性能天花板!

来自主题: AI技术研报
8918 点击    2026-02-24 15:43
刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

今天,Qwen 家族新成员+2,我们正式发布 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型系列,这两个模型基于 Qwen3-VL 构建,专为多模态信息检索与跨模态理解设计,为图文、视频等混合内容的理解与检索提供统一、高效的解决方案。

来自主题: AI资讯
9829 点击    2026-01-08 23:28
Embedding相似度不是万金油,电商、 新闻场景如何按时效性做rerank

Embedding相似度不是万金油,电商、 新闻场景如何按时效性做rerank

Embedding相似度不是万金油,电商、 新闻场景如何按时效性做rerank

同样是语义相似度结合时效性做rerank,指数衰减、高斯衰减、线性衰减怎么选? 假设你要在一个新闻应用中落地语义检索功能,让用户搜索雷军的投资版图盘点时,能自动关联顺为资本、小米战投等核心关联信息。

来自主题: AI技术研报
9571 点击    2025-11-05 09:46
抖音SAIL团队联合港中文MMLab推出SAIL-Embedding:打通「视、文、音」的全模态嵌入

抖音SAIL团队联合港中文MMLab推出SAIL-Embedding:打通「视、文、音」的全模态嵌入

抖音SAIL团队联合港中文MMLab推出SAIL-Embedding:打通「视、文、音」的全模态嵌入

在短视频推荐、跨模态搜索等工业场景中,传统多模态模型常受限于模态支持单一、训练不稳定、领域适配性差等问题。

来自主题: AI技术研报
9475 点击    2025-11-04 10:42
Embedding黑箱成为历史!这个新框架让模型“先解释,再学Embedding”

Embedding黑箱成为历史!这个新框架让模型“先解释,再学Embedding”

Embedding黑箱成为历史!这个新框架让模型“先解释,再学Embedding”

让模型先解释,再学Embedding! 来自UIUC、ANU、港科大、UW、TAMU等多所高校的研究人员,最新推出可解释的生成式Embedding框架——GRACE。过去几年,文本表征(Text Embedding)模型经历了从BERT到E5、GTE、LLM2Vec,Qwen-Embedding等不断演进的浪潮。这些模型将文本映射为向量空间,用于语义检索、聚类、问答匹配等任务。

来自主题: AI技术研报
8044 点击    2025-10-22 15:00
让 llama.cpp 支持多模态向量模型

让 llama.cpp 支持多模态向量模型

让 llama.cpp 支持多模态向量模型

几周前,我们发布了 jina-embeddings-v4 模型的 GGUF 版本,大幅降低了显存占用,提升了运行效率。不过,受限于 llama.cpp 上游版本的运行时,当时的 GGUF 模型只能当作文本向量模型使用而无法支持多模态向量的输出。

来自主题: AI技术研报
9244 点击    2025-09-20 09:42