克雷研究所100万美元奖金要归AI了数学界规则大改,未来数学家如何应对「海量猜想」
克雷研究所100万美元奖金要归AI了数学界规则大改,未来数学家如何应对「海量猜想」数学领域,以其廉价的数据及问题的严谨性,成为了人工智能辅助发现的理想试验场,但唯有人类自己,才能区分出好猜想和坏猜想。
数学领域,以其廉价的数据及问题的严谨性,成为了人工智能辅助发现的理想试验场,但唯有人类自己,才能区分出好猜想和坏猜想。
作为EDA领域的杰出学者,丛京生院士在去年9月的这篇采访文章中和我们简要分享了他的学术历程,以及多年来进行研究工作的宝贵经验和心得。
近年来,「scaling」是计算机视觉研究的主角之一。随着模型尺寸和训练数据规模的增大、学习算法的进步以及正则化和数据增强等技术的广泛应用,通过大规模训练得到的视觉基础网络(如 ImageNet1K/22K 上训得的 Vision Transformer、MAE、DINOv2 等)已在视觉识别、目标检测、语义分割等诸多重要视觉任务上取得了令人惊艳的性能。
大数据巨头Databricks与哥伦比亚大学最新研究发现,在数学和编程任务上,LoRA干不过全量微调。
当计算预算低时,重复使用高质量数据更好;当不差钱时,使用大量数据更有利。
前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。
大语言模型可谓是迄今为止对人类行为最大的建模,如何借助大语言模型工具,让科技发展更好地应用到真实人类社会中去?从哈佛物理系到大语言模型结合社会学和经济学的研究,朱科航的思考路径,聚焦在对人类行为的深度学习和理解。在开始今天阅读之前,大家不妨先猜一猜,大语言模型之前人类应用最广的 TOP2 机器学习是什么?Enjoy
本月初,来自 MIT 等机构的研究者提出了一种非常有潜力的 MLP 替代方法 ——KAN。
“Scaling Law不是万金油”——关于大模型表现,华为又提出了新理论。
本次公布的获奖论文中,有多位华人作者。