AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

前些天,OpenAI 发布了 ο1 系列模型,它那「超越博士水平的」强大推理性能预示着其必将在人们的生产生活中大有作为。但它的使用成本也很高,以至于 OpenAI 不得不限制每位用户的使用量:每位用户每周仅能给 o1-preview 发送 30 条消息,给 o1-mini 发送 50 条消息。

来自主题: AI技术研报
6064 点击    2024-09-17 19:14
李彦宏内部讲话流出:曝大模型「刷榜」潜规则,谈三大认知误区

李彦宏内部讲话流出:曝大模型「刷榜」潜规则,谈三大认知误区

李彦宏内部讲话流出:曝大模型「刷榜」潜规则,谈三大认知误区

大模型更新速度放缓,一些人开始唱衰AI,难道AI真的进入了寒冬?最近,李彦宏一次内部讲话曝出,阐述了人们对LLM的三大认知误区。

来自主题: AI资讯
8346 点击    2024-09-12 20:59
LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

近年来,大模型的高速发展极大地改变了人工智能的格局。对齐(Alignment) 是使大模型的行为符合人类意图和价值观,引导大模型按照人类的需求和期望进化的核心步骤,因此受到学术界和产业界的高度关注。

来自主题: AI资讯
9751 点击    2024-09-12 10:10
Scaling Law瓶颈,Cursor编程为什么这么强?团队参与新研究掏出秘密武器

Scaling Law瓶颈,Cursor编程为什么这么强?团队参与新研究掏出秘密武器

Scaling Law瓶颈,Cursor编程为什么这么强?团队参与新研究掏出秘密武器

近段时间,AI 编程工具 Cursor 的风头可说是一时无两,其表现卓越、性能强大。近日,Cursor 一位重要研究者参与的一篇相关论文发布了,其中提出了一种方法,可通过搜索自然语言的规划来提升 Claude 3.5 Sonnet 等 LLM 的代码生成能力。

来自主题: AI技术研报
6830 点击    2024-09-11 13:57
召唤100多位学者打分,斯坦福新研究:「AI科学家」创新确实强

召唤100多位学者打分,斯坦福新研究:「AI科学家」创新确实强

召唤100多位学者打分,斯坦福新研究:「AI科学家」创新确实强

近日,一篇关于自动化 AI 研究的论文引爆了社交网络,原因是该论文得出了一个让很多人都倍感惊讶的结论:LLM 生成的想法比专家级人类研究者给出的想法更加新颖!

来自主题: AI技术研报
6872 点击    2024-09-11 13:53
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
5603 点击    2024-09-11 10:17