
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
36氪获悉,Bridgewise LTD(以下简称「Bridgewise」)宣布完成数千万美元的战略融资,本轮融资由SIX集团、Group 11和L4 Venture Builder等战略投资者主导。本轮融资的资金主要用于AI平台的研发以及全球市场的扩张。
AI大模型驱动产业变革,机遇和挑战并存。
在这个信息爆炸的时代,我们每天都在被海量的数据淹没。如何从这些数据中挖掘出有价值的信息,已经成为了一个亟待解决的问题。今天,我们要给大家带来一个震撼人心的消息——AI界的两大神器,Hebbia和Wiseflow,正在改变我们获取和处理信息的方式。
环境持续变化,时代总在迭变,“商业之王”们紧随时代浪潮,坚持创造,谋求新动能。立足中国经济大转型的当下,WISE2024 商业之王大会,一同发现真正有韧性的“商业之王”,探寻中国商业浪潮里“正确的事”。
Open-Sora-Plan迎来又一次升级。新的Open-Sora-Plan v1.3.0版本引入了五个新特性:性能更强、成本更低的WFVAE;Prompt refiner;高质量数据清洗策略;全新稀疏注意力的DiT,以及动态分辨率、动态时长的支持。
现有的大模型主要依赖固定的参数和数据来存储知识,一旦训练完成,修改和更新特定知识的代价极大,常常因知识谬误导致模型输出不准确或引发「幻觉」现象。因此,如何对大模型的知识记忆进行精确控制和编辑,成为当前研究的前沿热点。
ChemLLM系列模型是由上海人工智能实验室开发的首个兼备推理、对话等通用能力和化学专业能力的开源大模型。相比于现有的其他大模型,ChemLLM对化学空间进行了有效建模,在产物预测、名称转化和化学性质预测等核心化学任务上表现优异。ChemLLM系列模型已经发布到了始智AI wisemodel.cn开源社区,并且无需任何代码,两步即可完成模型的在线体验。
AI 播客知识管理应用 Podwise 的 ARR 年收入突破了 12000 美元
始智AI wisemodel.cn社区将打造成huggingface之外最活跃的中立开放的AI开源社区。欢迎《加入wisemodel社区志愿者团队》以及《欢迎加入wisemodel开源共创计划》。