数据科学新风口?三大环节搞定ML「资产」管理,VLDB'25最新教程抢先看!
数据科学新风口?三大环节搞定ML「资产」管理,VLDB'25最新教程抢先看!在大模型时代,机器学习资产(如模型、数据和许可证)数量激增,但大多缺乏规范管理,严重阻碍了AI应用效率。研究人员将在VLDB 2025系统介绍如何整理、发现和利用这些资产,使其更易查找、复用且符合规范,从而提升开发效率与协作质量。
在大模型时代,机器学习资产(如模型、数据和许可证)数量激增,但大多缺乏规范管理,严重阻碍了AI应用效率。研究人员将在VLDB 2025系统介绍如何整理、发现和利用这些资产,使其更易查找、复用且符合规范,从而提升开发效率与协作质量。
对于计算任务负载来说,越是专用,效率就越高,谷歌的 TPU 就是其中的一个典型例子。它自 2015 年开始在谷歌数据中心部署后,已经发展到了第 7 代。目前的最新产品不仅使用了最先进的制程工艺打造,也在架构上充分考虑了对于机器学习推理任务的优化。TPU 的出现,促进了 Gemini 等大模型技术的进展。
在一次采访中,美国国家科学基金会(NSF)人工智能和基本相互作用研究所(IAIFI)主任杰西·塞勒(Jesse Thaler)畅谈了AI和物理学富有成效的交叉。他分享了自己从机器学习怀疑者转变为倡导者的思想转变经历,并分析了AI与物理学双向互动可能带来新发现的潜在路径。
当前 GPT 类大语言模型的表征和处理机制,仅在输入和输出接口层面对语言元素保持可解释的语义映射。相比之下,人类大脑直接在分布式的皮层区域中编码语义,如果将其视为一个语言处理系统,它本身就是一个在全局上可解释的「超大模型」。
在数据隐私日益重要的 AI 时代,如何在保护用户数据的同时高效运行机器学习模型,成为了学术界和工业界共同关注的难题。
科研是 AI 最早实现广泛落地的行业之一。在 ChatGPT 掀起这一轮生成式 AI 热潮之前,甚至可以追溯到上一轮由机器学习主导的技术浪潮中,AI 就已被用于气候模型参数校准、分子动力学模拟加速等科研任务。尤其在 2018 年前后,DeepMind 推出的 AlphaFold 在蛋白质结构预测方面实现突破,不仅引发了医药行业的技术革命,更被《自然》杂志评价为「解决了生物学五十年来的重大挑战」。
Anthropic 联合创始人 Jared Kaplan 是一名理论物理学家,研究兴趣广泛,涉及有效场论、粒子物理、宇宙学、散射振幅以及共形场论等。过去几年,他还与物理学家、计算机科学家们合作开展机器学习研究,包括神经模型以及 GPT-3 语言模型的 Scaling Law。
还在为 LoRA 训练不稳定、模型融合效果差、剪枝后性能大降而烦恼吗?来自香港城市大学、南方科技大学、浙江大学等机构的研究者们提出了一种简单的渐进式训练策略,CoTo,通过在训练早期随机失活一部分适配器,并逐渐提高其激活概率,有效缓解了层级不均衡问题,并显著增强了模型在多任务融合和剪枝等操作上的鲁棒性和有效性。该工作已被机器学习顶会 ICML 2025 接收。
当前最强大的大语言模型(LLM)虽然代码能力飞速发展,但在解决真实、复杂的机器学习工程(MLE)任务时,仍像是在进行一场“闭卷考试”。它们可以在单次尝试中生成代码,却无法模拟人类工程师那样,在反复的实验、调试、反馈和优化中寻找最优解的真实工作流。
知名 AI 技术博主、《Python 机器学习》作者 Sebastian Raschka 又来放福利了!