AI资讯新闻榜单内容搜索-大型语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大型语言模型
自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速

自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速

自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速

科学技术的快速发展过程中,机器学习研究作为创新的核心驱动力,面临着实验过程复杂、耗时且易出错,研究进展缓慢以及对专门知识需求高的挑战。近年来,LLM 在生成文本和代码方面展现出了强大的能力,为科学研究带来了前所未有的可能性。然而,如何系统化地利用这些模型来加速机器学习研究仍然是一个有待解决的问题。

来自主题: AI技术研报
7555 点击    2024-09-25 20:20
英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升

英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升

英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升

NVLM 1.0系列多模态大型语言模型在视觉语言任务上达到了与GPT-4o和其他开源模型相媲美的水平,其在纯文本性能甚至超过了LLM骨干模型,特别是在文本数学和编码基准测试中,平均准确率提高了4.3个百分点。

来自主题: AI技术研报
7639 点击    2024-09-24 12:27
战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

斯坦福大学的最新研究通过大规模实验发现,尽管大型语言模型(LLMs)在新颖性上优于人类专家的想法,但在可行性方面略逊一筹,还需要进一步研究以提高其实用性。

来自主题: AI技术研报
9440 点击    2024-09-17 23:12
COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

大型语言模型(LLMs)虽然进展很快,很强大,但是它们仍然存在会产生幻觉、生成有害内容和不遵守人类指令等问题。一种流行的解决方案就是基于【自我纠正】,大概就是看自己输出的结果,自己反思一下有没有错,如果有错就自己改正。目前自己纠正还是比较关注于让大模型从错误中进行学习。

来自主题: AI技术研报
8094 点击    2024-09-17 21:26
36 亿融资“造假”被揭穿,挣钱太难了,前苹果 AI 工程师 3 年打造的“欧洲 OpenAI”宣告退出模型竞赛

36 亿融资“造假”被揭穿,挣钱太难了,前苹果 AI 工程师 3 年打造的“欧洲 OpenAI”宣告退出模型竞赛

36 亿融资“造假”被揭穿,挣钱太难了,前苹果 AI 工程师 3 年打造的“欧洲 OpenAI”宣告退出模型竞赛

近日 Aleph Alpha 开始将其商业重点从开发大型语言模型转向生成式 AI 操作系统和咨询服务。

来自主题: AI资讯
7644 点击    2024-09-11 09:33
用「图灵测试」检验AI尤其是大语言模型,真的科学吗?

用「图灵测试」检验AI尤其是大语言模型,真的科学吗?

用「图灵测试」检验AI尤其是大语言模型,真的科学吗?

当前的大型语言模型似乎能够通过一些公开的图灵测试。我们该如何衡量它们是否像人一样聪明呢?

来自主题: AI技术研报
5368 点击    2024-08-31 10:05
FuriosaAI推出高能效AI芯片:性能与英伟达L40S接近,功耗低40%!

FuriosaAI推出高能效AI芯片:性能与英伟达L40S接近,功耗低40%!

FuriosaAI推出高能效AI芯片:性能与英伟达L40S接近,功耗低40%!

8月27日消息,在近日召开的Hot Chips 2024大会上,韩国AI芯片初创公司FuriosaAI 推出了一款面向高性能大型语言模型和多模态模型推理的高能效数据中心AI加速器 RNGD。

来自主题: AI技术研报
6737 点击    2024-08-28 10:55
国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

以 GPT 为代表的大型语言模型预示着数字认知空间中通用人工智能的曙光。这些模型通过处理和生成自然语言,展示了强大的理解和推理能力,已经在多个领域展现出广泛的应用前景。无论是在内容生成、自动化客服、生产力工具、AI 搜索、还是在教育和医疗等领域,大型语言模型都在不断推动技术的进步和应用的普及。

来自主题: AI资讯
9275 点击    2024-08-23 17:27
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5228 点击    2024-08-13 17:42
2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

Mini-Monkey 是一个轻量级的多模态大型语言模型,通过采用多尺度自适应切分策略(MSAC)和尺度压缩机制(SCM),有效缓解了传统图像切分策略带来的锯齿效应,提升了模型在高分辨率图像处理和文档理解任务的性能。它在多项基准测试中取得了领先的成绩,证明了其在多模态理解和文档智能领域的潜力。

来自主题: AI技术研报
4447 点击    2024-08-12 17:18