AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
FineWeb技术报告出炉!揭秘HuggingFace规模最大、质量最高预训练数据集

FineWeb技术报告出炉!揭秘HuggingFace规模最大、质量最高预训练数据集

FineWeb技术报告出炉!揭秘HuggingFace规模最大、质量最高预训练数据集

从大规模网络爬取、精细过滤到去重技术,通过FineWeb的技术报告探索如何打造高质量数据集,为大型语言模型(LLM)预训练提供更优质的性能。

来自主题: AI资讯
10575 点击    2024-06-09 18:06
英特尔放大招:新制程、能效核一起上,144核的至强6,性能成倍提升

英特尔放大招:新制程、能效核一起上,144核的至强6,性能成倍提升

英特尔放大招:新制程、能效核一起上,144核的至强6,性能成倍提升

今日,英特尔推出英特尔® 至强® 6能效核处理器,每个 CPU 拥有多达 144 个内核,机架密度提高达3倍1,以高性能、高密度、高能效和低TCO,满足多样的云级工作负载,是数据中心高效能之选。

来自主题: AI资讯
9525 点击    2024-06-07 14:22
Stability AI开源47秒音频生成模型,虫鸣鸟叫、摇滚、鼓点都能生成

Stability AI开源47秒音频生成模型,虫鸣鸟叫、摇滚、鼓点都能生成

Stability AI开源47秒音频生成模型,虫鸣鸟叫、摇滚、鼓点都能生成

音频生成领域又有好消息:刚刚,Stability AI 宣布推出开放模型 Stable Audio Open,该模型能够生成高质量的音频数据。

来自主题: AI资讯
10125 点击    2024-06-07 10:40
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

CRATE-α是一种新型Transformer架构变体,通过设计改进提升了模型的可扩展性、性能和可解释性,CRATE-α-Base在ImageNet分类任务上的性能显著超过了之前最好的CRATE-B模型,其性能会随着模型和数据集规模扩大而继续提升。

来自主题: AI技术研报
10346 点击    2024-06-06 15:48
天大、南大发布LPSNet:无透镜成像下的人体三维姿态与形状估计 | CVPR 2024

天大、南大发布LPSNet:无透镜成像下的人体三维姿态与形状估计 | CVPR 2024

天大、南大发布LPSNet:无透镜成像下的人体三维姿态与形状估计 | CVPR 2024

天津大学与南京大学联合团队在CVPR 2024上发表了LPSNet项目,提出了一种端到端的无透镜成像下的3D人体姿态和形状估计框架,通过多尺度无透镜特征解码器和双头辅助监督机制,直接从编码后的无透镜成像数据中提取特征并提高姿态估计的准确度。

来自主题: AI技术研报
9654 点击    2024-06-06 11:29
Karpathy点赞,这份报告教你如何用 LLaMa 3创建高质量网络数据集

Karpathy点赞,这份报告教你如何用 LLaMa 3创建高质量网络数据集

Karpathy点赞,这份报告教你如何用 LLaMa 3创建高质量网络数据集

众所周知,对于 Llama3、GPT-4 或 Mixtral 等高性能大语言模型来说,构建高质量的网络规模数据集是非常重要的。然而,即使是最先进的开源 LLM 的预训练数据集也不公开,人们对其创建过程知之甚少。

来自主题: AI技术研报
10199 点击    2024-06-04 17:45