AI资讯新闻榜单内容搜索-With

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: With
通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

现在,在 Hugging Face 中,使用打包的指令调整示例 (无需填充) 进行训练已与 Flash Attention 2 兼容,这要归功于一个 最近的 PR 以及新的 DataCollatorWithFlattening。 它可以在保持收敛质量的同时,将训练吞吐量提高多达 2 倍。继续阅读以了解详细信息!

来自主题: AI资讯
4140 点击    2024-09-18 15:44
ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

本文介绍了香港科技大学(广州)的一篇关于大模型高效微调(LLM PEFT Fine-tuning)的文章「Parameter-Efficient Fine-Tuning with Discrete Fourier Transform」

来自主题: AI技术研报
11092 点击    2024-05-26 13:50
硅谷 CEO 立「千万赌约」,邀马斯克应战:“我用 1000 万美元,赌你的 AI 预测是错的!”

硅谷 CEO 立「千万赌约」,邀马斯克应战:“我用 1000 万美元,赌你的 AI 预测是错的!”

硅谷 CEO 立「千万赌约」,邀马斯克应战:“我用 1000 万美元,赌你的 AI 预测是错的!”

日前,马斯克在与挪威央行首席执行官 Nicolai Tangen 的一次直播访谈中,说出了许多争议性言论: “我见过很多技术,AI 是我见过发展最快的技术。”

来自主题: AI资讯
4118 点击    2024-04-13 12:52
英伟达发了个有点弱的端侧模型,却想喊话大家举手投降

英伟达发了个有点弱的端侧模型,却想喊话大家举手投降

英伟达发了个有点弱的端侧模型,却想喊话大家举手投降

英伟达在2024年2月14号的时候推出了这么一个产品,叫做Chat with RTX。顾名思义,就是和英伟达的显卡聊天。简单来说Chat with RTX是一个本地部署的大语言模型工具,可以实现和大语言模型对话,还支持处理多种文件类型,用户可以与其进行文本、PDF、Word文档等多种格式内容的交互。

来自主题: AI资讯
8277 点击    2024-02-27 14:14
英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

英伟达发布了一个对话机器人 ——「Chat with RTX」,面向 GeForce RTX 30 系列和 40 系列显卡用户(至少有 8GB VRAM)。有人开玩笑说,Sam Altman 进军芯片领域,黄仁勋进入聊天机器人的领域,这是 Sam vs Jensen 的时代。

来自主题: AI资讯
5270 点击    2024-02-14 14:27