AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
OpenAI员工流失的背后:地盘争夺、倦怠、薪酬要求

OpenAI员工流失的背后:地盘争夺、倦怠、薪酬要求

OpenAI员工流失的背后:地盘争夺、倦怠、薪酬要求

近日,OpenAI的CTO Mira Murati宣布离职,同一天,首席研究官Bob McGrew、研究副总裁Barret Zoph也宣布离职。

来自主题: AI资讯
7845 点击    2024-09-30 11:31
迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

在医疗领域中,大语言模型已经有了广泛的研究。然而,这些进展主要依赖于英语的基座模型,并受制于缺乏多语言医疗专业数据的限制,导致当前的医疗大模型在处理非英语问题时效果不佳。

来自主题: AI技术研报
9768 点击    2024-09-29 22:38
最新论文:美国人如何使用生成式AI技术?

最新论文:美国人如何使用生成式AI技术?

最新论文:美国人如何使用生成式AI技术?

在人工智能技术发展最快的美国,人们对生成式人工智能的使用情况怎样? 美国全国经济研究所(NBER)日前发布的最新一篇工作论文《The Rapid Adoption of Generative AI》给出了答案。NBER是美国最大的经济学研究组织,其发布的工作论文代表着经济学研究最新的成果。

来自主题: AI技术研报
6121 点击    2024-09-29 17:09
o1规划能力首测!已超越语言模型范畴,preview终于赢mini一回

o1规划能力首测!已超越语言模型范畴,preview终于赢mini一回

o1规划能力首测!已超越语言模型范畴,preview终于赢mini一回

o1-preview终于赢过了mini一次! 亚利桑那州立大学的最新研究表明,o1-preview在规划任务上,表现显著优于o1-mini。

来自主题: AI资讯
5561 点击    2024-09-29 15:47
从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

Sutton 等研究人员近期在《Nature》上发表的研究《Loss of Plasticity in Deep Continual Learning》揭示了一个重要发现:在持续学习环境中,标准深度学习方法的表现竟不及浅层网络。研究指出,这一现象的主要原因是 "可塑性损失"(Plasticity Loss):深度神经网络在面对非平稳的训练目标持续更新时,会逐渐丧失从新数据中学习的能力。

来自主题: AI资讯
5625 点击    2024-09-29 14:39
《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源

《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源

《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源

近日,机器学习研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又分享了一篇长文,主题为《从头开始构建一个 GPT 风格的 LLM 分类器》。

来自主题: AI资讯
4809 点击    2024-09-29 14:26
AI技术在微创外科中的应用和思考

AI技术在微创外科中的应用和思考

AI技术在微创外科中的应用和思考

外科医生Dr. Lee在一次美敦力的学术讨论上说到,“外科医生和精英运动员非常相似,都在团队环境中工作,不断的重复训练已达到顶尖的成绩。但运动员往往花费更多的时间在影像室,回顾和研究过去的表现。而医生目前还没有得到足够、及时的信息反馈,以学习和提升手术技能。”

来自主题: AI技术研报
10537 点击    2024-09-28 17:03
为什么伟大不能被计划?亲历者揭秘 OpenAI 崛起的关键

为什么伟大不能被计划?亲历者揭秘 OpenAI 崛起的关键

为什么伟大不能被计划?亲历者揭秘 OpenAI 崛起的关键

我们被倡导要想明白自己的目标是什么、并做出计划。然而,两位人工智能研究者却认为,这只适用于普通的小愿望。 一旦涉及过于高远的、不确定能否实现的目标,比如打造 AGI(通用人工智能)、登月计划等等——那么根据兴趣进行自由的、开放性的探索,才更能实现想要的。

来自主题: AI资讯
4138 点击    2024-09-28 10:51
形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

形式化定理证明新突破:SubgoalXL框架让大模型在Isabelle中性能暴涨

在这种背景下,研究团队提出了一个全新的框架:SubgoalXL,结合了子目标(subgoal)证明策略与专家学习(expert learning)方法,在 Isabelle 中实现了形式化定理证明的性能突破。

来自主题: AI技术研报
5785 点击    2024-09-27 20:57