
统一视觉理解与生成,MetaMorph模型问世,LeCun、谢赛宁、刘壮等参与
统一视觉理解与生成,MetaMorph模型问世,LeCun、谢赛宁、刘壮等参与如今,多模态大模型(MLLM)已经在视觉理解领域取得了长足进步,其中视觉指令调整方法已被广泛应用。该方法是具有数据和计算效率方面的优势,其有效性表明大语言模型(LLM)拥有了大量固有的视觉知识,使得它们能够在指令调整过程中有效地学习和发展视觉理解。
如今,多模态大模型(MLLM)已经在视觉理解领域取得了长足进步,其中视觉指令调整方法已被广泛应用。该方法是具有数据和计算效率方面的优势,其有效性表明大语言模型(LLM)拥有了大量固有的视觉知识,使得它们能够在指令调整过程中有效地学习和发展视觉理解。
字节前几天的发布会,上线了一堆新的模型:视觉理解、3D 生成,以及全线降价
继视觉和听觉之后,AI已经进化到拥有嗅觉了?? 你没听错,这是来自Osmo公司的最新技术,它们刚刚首次实现了由AI生成的李子味道。 而且生成味道的过程几乎是全自动的——除了放入水果和取出生成结果,全程都不需要人工干预。
2024年12月19日,智源研究院发布并解读国内外100余个开源和商业闭源的语言、视觉语言、文生图、文生视频、语音语言大模型综合及专项评测结果。
最近,2D/3D 内容创作、世界模型(World Models)似乎成为 AI 领域的热门关键词。作为计算机视觉的基础任务之一,多视角图像生成是上述热点方向的技术基础,在 3D 场景生成、虚拟现实、具身感知与仿真、自动驾驶等领域展现了广泛的应用潜力。
Florence-VL 提出了使用生成式视觉编码器 Florence-2 作为多模态模型的视觉信息输入,克服了传统视觉编码器(如 CLIP)仅提供单一视觉表征而往往忽略图片中关键的局部信息。
人在字节火山发布会现场。 眼睁睁看着他们发了一大堆的模型升级,眼花缭乱,有一种要一股脑把字节系的AI底牌往桌上亮的感觉。 有语音的,有音乐的,有大语言模型的,有文生图的,有3D生成。
从23年初的小规模尝试,到今年各大中小厂商纷纷入局,AIGC的能力以惊人的速度发展,并快速融入了社交、游戏等多条不同的赛道,共同编织出了一个新的领域——AI互娱。
如果从今年10月份开始算,截止到现在,视觉中国股价已经翻了一倍多。有点2022年底GPT概念股的架势。不过,视觉中国的涨停可不是靠概念,而是靠AI项目合作换来的。基于社区、场景和数据优势,目前国内包括智谱、通义千问、可灵AI、即梦AI、生数科技(Vidu)、爱诗科技(Pixverse)等几乎所有主流文生视频平台都接入了视觉中国。
国产大模型,正在引领 AI 技术新方向。 今天上午,月之暗面 Kimi 正式发布了视觉思考模型 k1,并已经上线了最新版的网页版以及安卓和 iOS APP。