AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

面对LLM逐渐膨胀的参数规模,没有H100的开发者和研究人员们想出了很多弥补方法,「量化」技术就是其中的一种。这篇可视化指南用各种图解,将「量化」的基本概念和分支方法进行了全方位总结。

来自主题: AI技术研报
9655 点击    2024-07-31 16:21
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
8798 点击    2024-07-31 16:05
AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

音视频大语言模型在处理视频内容时,往往未能充分发挥语音的作用。video-SALMONN模型通过三部分创新:音视频编码和时间对齐、多分辨率因果Q-Former、多样性损失函数和混合未配对音视频数据训练。该模型不仅在单一模态任务上表现优异,更在视听联合任务中展现了卓越的性能,证明了其全面性和准确性。

来自主题: AI技术研报
6847 点击    2024-07-31 15:05
「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

大型语言模型(LLM)展现出了令人印象深刻的智能水平。因此,确保其安全性显得至关重要。已有研究提出了各种策略,以使 LLM 与人类伦理道德对齐。然而,当前的先进模型例如 GPT-4 和 LLaMA3-70b-Instruct 仍然容易受到越狱攻击,并被用于恶意用途。

来自主题: AI技术研报
8696 点击    2024-07-30 16:55
关于大模型「越狱」的多种方式,有这些防御手段

关于大模型「越狱」的多种方式,有这些防御手段

关于大模型「越狱」的多种方式,有这些防御手段

随着人工智能(AI)技术的迅猛发展,特别是大语言模型(LLMs)如 GPT-4 和视觉语言模型(VLMs)如 CLIP 和 DALL-E,这些模型在多个技术领域取得了显著的进展。

来自主题: AI技术研报
10423 点击    2024-07-29 20:32
FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

自回归训练方式已经成为了大语言模型(LLMs)训练的标准模式, 今天介绍一篇来自阿联酋世界第一所人工智能大学MBZUAI的VILA实验室和CMU计算机系合作的论文,题为《FBI-LLM: Scaling Up Fully Binarized LLMs from Scratch via Autoregressive Distillation》

来自主题: AI技术研报
6740 点击    2024-07-28 23:25
晾衣难题难倒GPT-4,人类狂教知识图破解!华盛顿大学教授:LLM会有具备常识的一天吗

晾衣难题难倒GPT-4,人类狂教知识图破解!华盛顿大学教授:LLM会有具备常识的一天吗

晾衣难题难倒GPT-4,人类狂教知识图破解!华盛顿大学教授:LLM会有具备常识的一天吗

在QuantaMagazine的这篇播客中,主持人采访了华盛顿大学计算机教授Yejin Choi。两人谈到十分有趣的话题,比如AI是否必须获得具身和情感,才能发展出像人类一样的常识?

来自主题: AI技术研报
8656 点击    2024-07-28 22:05
ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

随着大型语言模型(LLMs)的进步,多模态大型语言模型(MLLMs)迅速发展。它们使用预训练的视觉编码器处理图像,并将图像与文本信息一同作为 Token 嵌入输入至 LLMs,从而扩展了模型处理图像输入的对话能力。这种能力的提升为自动驾驶和医疗助手等多种潜在应用领域带来了可能性。

来自主题: AI技术研报
8645 点击    2024-07-27 19:33
算法、系统和应用,三个视角全面读懂混合专家(MoE)

算法、系统和应用,三个视角全面读懂混合专家(MoE)

算法、系统和应用,三个视角全面读懂混合专家(MoE)

LLM 很强,而为了实现 LLM 的可持续扩展,有必要找到并实现能提升其效率的方法,混合专家(MoE)就是这类方法的一大重要成员。

来自主题: AI技术研报
5409 点击    2024-07-26 17:57