AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。

来自主题: AI技术研报
8288 点击    2024-12-02 14:27
谷歌推出医疗AI的安卓系统-基础模型未来已来!

谷歌推出医疗AI的安卓系统-基础模型未来已来!

谷歌推出医疗AI的安卓系统-基础模型未来已来!

Google研究院健康AI团队于近日推出了全新的开源模型套件——Health AI Developer Foundations(HAI-DEF)。在本次HAI-DEF的首次发布中,Google推出了三个专注于医疗影像应用的重要模型。首先是CXR Foundation胸部X光模型,其次是Derm Foundation皮肤影像模型,第三个是Path Foundation病理学模型,它基于ViT-S架构

来自主题: AI技术研报
7001 点击    2024-12-02 10:52
假如你只有一天时间开发一个 App,前后端都要写,你能办到吗?

假如你只有一天时间开发一个 App,前后端都要写,你能办到吗?

假如你只有一天时间开发一个 App,前后端都要写,你能办到吗?

一天开发一个 App,听起来像是个天方夜谭吧?说实话,几年前我也觉得不可能,但在今天,借助强大的 AI 工具和合理的工作流,这事儿真的变得触手可及。当然,这并不意味着可以随便敷衍,而是需要一套高效的方法论。今天,我就来分享一下我们团队在一天内开发一个 App 的完整流程。

来自主题: AI技术研报
3914 点击    2024-12-02 09:22
微软发明全新「LLM语言」,AI智能体交互效率翻倍!

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

对于LLM来说,人类语言可能不是最好的交流媒介,正如《星战》中的机器人有自己的一套语言,近日,来自微软的研究人员改进了智能体间的交互方式,使模型的通信速度翻倍且不损失精度。

来自主题: AI技术研报
5218 点击    2024-12-01 15:30
ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星

ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星

ICLR 惊现[10,10,10,10]满分论文,ControlNet 作者新作,Github 5.8k 颗星

四个 10 分!罕见的一幕出现了。 您正在收看的,不是中国梦之队的跳水比赛,而是 ICLR 2025 的评审现场。 虽说满分论文不是前无古人,后无来者,但放在平均分才 4.76 的 ICLR,怎么不算是相当炸裂的存在呢。

来自主题: AI技术研报
6870 点击    2024-12-01 14:39
轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

轻量化MobileMamba视觉模型来了|浙大/腾讯优图/华中科大联合出品

浙大、腾讯优图、华中科技大学的团队,提出轻量化MobileMamba! 既良好地平衡了效率与效果,推理速度远超现有基于Mamba的模型。

来自主题: AI技术研报
7195 点击    2024-12-01 14:27
关于计算机视觉中的自回归模型,这篇综述一网打尽了

关于计算机视觉中的自回归模型,这篇综述一网打尽了

关于计算机视觉中的自回归模型,这篇综述一网打尽了

随着计算机视觉领域的不断发展,自回归模型作为一种强大的生成模型,在图像生成、视频生成、3D 生成和多模态生成等任务中展现出了巨大的潜力。然而,由于该领域的快速发展,及时、全面地了解自回归模型的研究现状和进展变得至关重要。本文旨在对视觉领域中的自回归模型进行全面综述,为研究人员提供一个清晰的参考框架。

来自主题: AI技术研报
6969 点击    2024-12-01 14:21
无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度。 由国家信息中心、牛津大学、北京理工大学、同济大学、中国科学技术大学等机构的团队提出了一个FilterNet。 目前已被NeurlPS 2024接收。

来自主题: AI技术研报
5997 点击    2024-12-01 14:12
AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

教育一直被认为是会被LLM改变最大的行业之一。ChatGPT 的使用场景中,教育占据了很大比重,其用量常随开学和假期规律波动。而 Andrej Karpathy 也选择了教育作为他的创业方向。人们都期待能够有全能的AI Tutor,因材施教,提供给每个人最好、最个性化的教育。

来自主题: AI技术研报
6209 点击    2024-12-01 12:05
深度丨AI Agents 技术栈图谱与分析

深度丨AI Agents 技术栈图谱与分析

深度丨AI Agents 技术栈图谱与分析

Letta(由之前爆火的 MemGPT 更名)最近做了一个关于 AI Agents Stack 的研究报告。

来自主题: AI技术研报
7809 点击    2024-12-01 11:29
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
8676 点击    2024-12-01 10:56
在大模型应用中,如何提升RAG(检索增强生成)的能力?

在大模型应用中,如何提升RAG(检索增强生成)的能力?

在大模型应用中,如何提升RAG(检索增强生成)的能力?

曾经参与过公司内部的RAG应用,写过一篇关于RAG的技术详情以及有哪些好用的技巧,这次专注于总结一下RAG的提升方法。

来自主题: AI技术研报
6218 点击    2024-12-01 10:43
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
8181 点击    2024-11-30 16:51
多模态慢思考:分解原子步骤以解决复杂数学推理

多模态慢思考:分解原子步骤以解决复杂数学推理

多模态慢思考:分解原子步骤以解决复杂数学推理

AtomThink 是一个包括 CoT 注释引擎、原子步骤指令微调、政策搜索推理的全流程框架,旨在通过将 “慢思考 “能力融入多模态大语言模型来解决高阶数学推理问题。量化结果显示其在两个基准数学测试中取得了大幅的性能增长,并能够轻易迁移至不同的多模态大模型当中。

来自主题: AI技术研报
5382 点击    2024-11-30 16:45
陶哲轩:通义千问QwQ奥数真厉害,开源大模型顶流

陶哲轩:通义千问QwQ奥数真厉害,开源大模型顶流

陶哲轩:通义千问QwQ奥数真厉害,开源大模型顶流

QwQ 具有神奇的推理能力。 一个刚发布两天的开源模型,正在 AI 数学奥林匹克竞赛 AIMO 上创造新纪录。

来自主题: AI技术研报
6779 点击    2024-11-30 16:34
清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。

来自主题: AI技术研报
6198 点击    2024-11-30 16:29
反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

当前,生成式AI正席卷整个社会,大语言模型(LLMs)在文本(ChatGPT)和图像(DALL-E)生成方面取得了令人惊叹的成就,仅仅依赖零星几个提示词,它们就能生成超出预期的内容

来自主题: AI技术研报
5593 点击    2024-11-30 10:21
解释器模型首创!Tilde打破提示工程局限,让AI推理更精准

解释器模型首创!Tilde打破提示工程局限,让AI推理更精准

解释器模型首创!Tilde打破提示工程局限,让AI推理更精准

一家总部位于美国加州的初创公司Tilde,正在构建解释器模型,解读模型的推理过程,并通过引导采样动态调整生成策略,提升大语言模型的推理能力和生成精度。相比直接优化提示的提示工程,这一方法展现出更灵活高效的潜力,有望重塑AI交互方式。

来自主题: AI技术研报
5879 点击    2024-11-29 16:12
上百万智能体在OASIS模拟平台上玩推特,AI玩社交媒体和真人有多像?

上百万智能体在OASIS模拟平台上玩推特,AI玩社交媒体和真人有多像?

上百万智能体在OASIS模拟平台上玩推特,AI玩社交媒体和真人有多像?

最近,上海 AI Lab、CAMEL-AI.org、大连理工大学、牛津大学、马普所等国内外多家机构联合发布了一个名为 OASIS 的百万级智能体交互开源项目。

来自主题: AI技术研报
6899 点击    2024-11-29 15:39
算法系统协同优化,vivo与港中文推出BlueLM-V-3B,手机秒变多模态AI专家

算法系统协同优化,vivo与港中文推出BlueLM-V-3B,手机秒变多模态AI专家

算法系统协同优化,vivo与港中文推出BlueLM-V-3B,手机秒变多模态AI专家

BlueLM-V-3B 是一款由 vivo AI 研究院与香港中文大学联合研发的端侧多模态模型。该模型现已完成对天玑 9300 和 9400 芯片的初步适配,未来将逐步推出手机端应用,为用户带来更智能、更便捷的体验。

来自主题: AI技术研报
5265 点击    2024-11-29 15:30
斯坦福吴佳俊扩散自蒸馏来了!突破文生图身份保留挑战

斯坦福吴佳俊扩散自蒸馏来了!突破文生图身份保留挑战

斯坦福吴佳俊扩散自蒸馏来了!突破文生图身份保留挑战

近年来,文本到图像扩散模型为图像合成树立了新标准,现在模型可根据文本提示生成高质量、多样化的图像。然而,尽管这些模型从文本生成图像的效果令人印象深刻,但它们往往无法提供精确的控制、可编辑性和一致性 —— 而这些特性对于实际应用至关重要。

来自主题: AI技术研报
6610 点击    2024-11-29 15:23
流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

自然智能(Natural intelligence)过程就像一条连续的流,可以实时地感知、行动和学习。流式学习是 Q 学习和 TD 等经典强化学习 (RL) 算法的运作方式,它通过使用最新样本而不存储样本来模仿自然学习。这种方法也非常适合资源受限、通信受限和隐私敏感的应用程序。

来自主题: AI技术研报
5798 点击    2024-11-29 15:18
惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

就在刚刚,LeCun一反常态地表示:AGI离我们只有5到10年了!这个说法,跟之前的「永远差着10到20年」大相径庭。当然,他还是把LLM打为死路,坚信自己的JEPA路线。至此,各位大佬们的口径是对齐了,有眼力见儿的投资人该继续投钱了。

来自主题: AI技术研报
4972 点击    2024-11-29 15:08
细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真

细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真

细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真

又一科幻场景步入现实!GPT-4竟和多个AI模型私自串通一气,欲要形成垄断的资本寡头联合定价。在被哈佛PSU团队抓现行后,大模型拒不认账。未来某天,AI会不会真要失控?

来自主题: AI技术研报
5879 点击    2024-11-29 14:52
80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。

来自主题: AI技术研报
7199 点击    2024-11-29 13:58
扣子(coze)又升级了,让你无需一行代码就可以搭出用户前端界面,实现拖拉拽搭建AI应用,快来瞧瞧.

扣子(coze)又升级了,让你无需一行代码就可以搭出用户前端界面,实现拖拉拽搭建AI应用,快来瞧瞧.

扣子(coze)又升级了,让你无需一行代码就可以搭出用户前端界面,实现拖拉拽搭建AI应用,快来瞧瞧.

10个小时前,Coze官方的一则最新通告,让人很特别惊喜。扣子可以直接应用开发,应用拖拉拽的方式,让无代码基础的同学,也可以搭建属于自己的AI应用,并不只限于在扣子界面进行互动.

来自主题: AI技术研报
10112 点击    2024-11-29 10:19