AI资讯新闻榜单内容搜索-LoRA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LoRA
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
4962 点击    2025-02-28 14:11
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
6811 点击    2025-02-22 13:57
LoRA最新最权威的一切都在这了,2025综述

LoRA最新最权威的一切都在这了,2025综述

LoRA最新最权威的一切都在这了,2025综述

在人工智能快速发展的今天,大型基础模型(如GPT、BERT等)已经成为AI应用的核心基石。然而,这些动辄数十亿甚至数万亿参数的模型给开发者带来了巨大的计算资源压力。传统的全参数微调方法不仅需要大量的计算资源,还面临着训练不稳定、容易过拟合等问题。

来自主题: AI技术研报
6217 点击    2025-01-16 10:48
Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重

Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重

Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重

Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过的任务,比如MATH、HumanEval和ARC-Challenge等,性能也都取得了提升。

来自主题: AI技术研报
8304 点击    2025-01-16 10:23
让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

大家可能看到过很多类似的结论:针对特定任务,对开源模型进行 LoRA 微调可以干翻 GPT-4 这类闭源模型。

来自主题: AI资讯
7025 点击    2025-01-09 09:37
北大发布ConsisID:无需训练Lora,就可以定制化个人视频写真!

北大发布ConsisID:无需训练Lora,就可以定制化个人视频写真!

北大发布ConsisID:无需训练Lora,就可以定制化个人视频写真!

这两天,北京大学等研究团队发布了一个视频生成的可控生成工作:ConsisID。ConsisID可以实现无需训练Lora的保持参考人脸一致性的文生视频,类似之前图像生成的IP-Adapter-Face和InstantID等工作。虽然之前也有类似的工作,但是ConsisID在效果更上一个台阶。

来自主题: AI技术研报
5920 点击    2024-12-06 09:25
手把手教你训练自己的FLUX Lora,从此实现写真自由

手把手教你训练自己的FLUX Lora,从此实现写真自由

手把手教你训练自己的FLUX Lora,从此实现写真自由

通过自己照片训练一个自己专属的FLUX模型,利用好FLUX的超强生图能力,从此想生成啥生成啥,实现写真自由

来自主题: AI资讯
8034 点击    2024-10-31 10:26
NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

大型语言模型(LLMs)虽然在适应新任务方面取得了长足进步,但它们仍面临着巨大的计算资源消耗,尤其在复杂领域的表现往往不尽如人意。

来自主题: AI技术研报
4226 点击    2024-10-20 16:58
微调Flux席卷全网,外国小哥一人组一队漫威英雄!

微调Flux席卷全网,外国小哥一人组一队漫威英雄!

微调Flux席卷全网,外国小哥一人组一队漫威英雄!

席卷开源界的AI生图王者诞生了!发布半个月,Flux已经成为替代Midjourney的宠儿。各路开发者们开始用自己的照片微调LoRA,一人拿捏多种风格。

来自主题: AI资讯
9643 点击    2024-08-19 14:32