AI资讯新闻榜单内容搜索-模型微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型微调
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,但还是有很多场景受限于资源或者实时性要求较高,无法使用大模型。

来自主题: AI技术研报
3756 点击    2023-11-27 12:49
Weights&Biases,支持AI明星公司训练模型的幕后英雄

Weights&Biases,支持AI明星公司训练模型的幕后英雄

Weights&Biases,支持AI明星公司训练模型的幕后英雄

有一家公司,OpenAI、Anthropic、Cohere、Aleph Alpha(欧洲顶尖大模型公司)和Hugging Face的模型训练和微调都离不开它,NVIDIA和谷歌云(GCP)都是它的深度合作伙伴,它是支持生成式AI明星公司们训练模型的幕后英雄。

来自主题: AI资讯
10152 点击    2023-11-04 10:26