大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界谷歌DeepMind、UC伯克利和MIT的研究人员认为,如果用大语言模型的思路来做大视频模型,能解决很多语言模型不擅长的问题,可能能更进一步接近世界模型。
来自主题: AI技术研报
6814 点击 2024-03-03 17:31
谷歌DeepMind、UC伯克利和MIT的研究人员认为,如果用大语言模型的思路来做大视频模型,能解决很多语言模型不擅长的问题,可能能更进一步接近世界模型。
AAAI 2024 奖项陆续公布,继杰出论文奖后,今天博士论文奖也公布了。
不用图像,只用文本就能训练出视觉概念表征?用写代码的方式读懂画面,形状、物体、场景都能懂!
MIT计算机科学与人工智能实验室(CSAIL)的一项研究发现:不用担心视觉AI会很快淘汰人类打工人,因为对于企业来说,它们实在是太贵了。
数据获取最新解,便是从生成模型中学习。获取高质量数据,已经成为当前大模型训练的一大瓶颈。
22倍加速还不够,再来提升46%,而且方法直接开源!这就是开源社区改进MIT爆火项目StreamingLLM的最新成果。
一个来自MIT博士生的惊人发现:只需对Transformer的特定层进行一种非常简单的修剪,即可在缩小模型规模的同时显著提高模型性能。
在AI的帮助下,MIT科学家解锁了60年以来的第一批用于对抗金黄色葡萄球菌的新抗生素!
11月29、30日,第八届·灵眸大赏Morketing Summit在中国·上海成功召开。
MIT、微软联合研究:不需要额外训练,也能增强大语言模型的任务性能并降低其大小。