AI资讯新闻榜单内容搜索-DeepMind

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: DeepMind
GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」

GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」

GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」

智能体在模拟人类合作行为的捐赠者游戏中表现出不同策略,其中Claude 3.5智能体展现出更有效的合作和惩罚搭便车行为的能力,而Gemini 1.5 Flash和GPT-4o则表现得更自私,结果揭示了不同LLM智能体在合作任务中的道德和行为差异,对未来人机协同社会具有重要意义。

来自主题: AI技术研报
7505 点击    2025-01-06 15:21
DeepMind重磅,用PC-SUBQ提示策略让LLM从相关性推断因果关系

DeepMind重磅,用PC-SUBQ提示策略让LLM从相关性推断因果关系

DeepMind重磅,用PC-SUBQ提示策略让LLM从相关性推断因果关系

在人工智能领域,大语言模型(LLMs)展现出了令人惊叹的能力,但在因果推理这一人类智能的核心能力上仍面临重大挑战。特别是在从相关性信息推断因果关系这一任务上,现有的大语言模型表现出明显的不足。

来自主题: AI技术研报
3065 点击    2025-01-06 13:39
数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

最近 AI 社区很多人都在讨论 Scaling Law 是否撞墙的问题。其中,一个支持 Scaling Law 撞墙论的理由是 AI 几乎已经快要耗尽已有的高质量数据,比如有一项研究就预计,如果 LLM 保持现在的发展势头,到 2028 年左右,已有的数据储量将被全部利用完。

来自主题: AI技术研报
8431 点击    2025-01-03 15:46
斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

随着 o1、o1 Pro 和 o3 的成功发布,我们明显看到,推理所需的时间和计算资源逐步上升。可以说,o1 的最大贡献在于它揭示了提升模型效果的另一种途径:在推理过程中,通过优化计算资源的配置,可能比单纯扩展模型参数更为高效。

来自主题: AI技术研报
8312 点击    2024-12-30 14:32
Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

大模型的的发布固然令人欣喜,但是各类测评也是忙坏了众多 AI 工作者。大模型推理的幻觉问题向来是 AI 测评的重灾区,诸如 9.9>9.11 的经典幻觉问题,各大厂家恨不得直接把问题用 if-else 写进来。

来自主题: AI技术研报
7305 点击    2024-12-30 10:39
DeepMind最新研究:逆向思维训练LLM可大幅提升AI推理能力

DeepMind最新研究:逆向思维训练LLM可大幅提升AI推理能力

DeepMind最新研究:逆向思维训练LLM可大幅提升AI推理能力

1822 年,电学之父法拉第在日记中写到“既然通电能够产生磁力,为什么不能用磁铁产生电流呢?我一定要反过来试试!”。于是在 1831 年,第一台发电机被发明,推动了人类进入电气化时代。

来自主题: AI技术研报
6776 点击    2024-12-27 10:16
清华姚班博士APPL实战,用Cursor复现北航、字节的Prompt优化框架ERM,准确率提高到99.3%

清华姚班博士APPL实战,用Cursor复现北航、字节的Prompt优化框架ERM,准确率提高到99.3%

清华姚班博士APPL实战,用Cursor复现北航、字节的Prompt优化框架ERM,准确率提高到99.3%

上周发出《AI时代写Prompt应该用APPL:为Prompt工程打造的编程语言,来自清华姚班的博士》之后,文章中实现了一个Google DeepMind的OPRO简单版本的优化方法,这让很多读者非常着迷。

来自主题: AI技术研报
6798 点击    2024-12-24 15:13