AI资讯新闻榜单内容搜索-LLaMA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: LLaMA
谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源模型Gemma 2开放了! 虽然前段时间Google I/O大会上,Gemma 2开源的消息就已经被放出,但谷歌还留了个小惊喜—— 除27B模型外,还有一个更轻的9B版本。 DeepMind创始人哈萨比斯表示,27B参数规模下,Gemma 2提供了同类模型最强性能,甚至还能与其两倍大的模型竞争。

来自主题: AI技术研报
7312 点击    2024-06-29 00:02
240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开

240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开

240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开

是时候把数据Scale Down了!Llama 3揭示了这个可怕的事实:数据量从2T增加到15T,就能大力出奇迹,所以要想要有GPT-3到GPT-4的提升,下一代模型至少还要150T的数据。好在,最近有团队从CommonCrawl里洗出了240T数据——现在数据已经不缺了,但你有卡吗?

来自主题: AI技术研报
8411 点击    2024-06-24 15:25
8B模型奥数成绩比肩GPT-4!上海AI Lab出品

8B模型奥数成绩比肩GPT-4!上海AI Lab出品

8B模型奥数成绩比肩GPT-4!上海AI Lab出品

只要1/200的参数,就能让大模型拥有和GPT-4一样的数学能力? 来自复旦和上海AI实验室的研究团队,刚刚研发出了具有超强数学能力的模型。 它以Llama 3为基础,参数量只有8B,却在奥赛级别的题目上取得了比肩GPT-4的准确率。

来自主题: AI技术研报
9059 点击    2024-06-17 23:35
对话林咏华:刚在“AI春晚”上开源了3.4T数据集的智源,是如何死磕大模型数据难题的

对话林咏华:刚在“AI春晚”上开源了3.4T数据集的智源,是如何死磕大模型数据难题的

对话林咏华:刚在“AI春晚”上开源了3.4T数据集的智源,是如何死磕大模型数据难题的

本周五,一年一度的AI春晚“北京智源大会”正式开幕。本次大会AI明星浓度,放在全球范围内可能也是独一份:OpenAI Sora负责人Aditya Ramesh作为神秘嘉宾进行了分享,并接受了DiT作者谢赛宁的“拷问”、李开复与张亚勤炉边对话AGI、还集齐了国内大模型“四小龙”,百川智能CEO王小川、智谱AI CEO张鹏、月之暗面CEO杨植麟、面壁智能CEO李大海…… 这还只是第一天上午的开幕式。

来自主题: AI资讯
8423 点击    2024-06-15 15:38
规格拉满!Llama和Sora作者都来刷脸的中国AI春晚,还开源了一大堆大模型成果

规格拉满!Llama和Sora作者都来刷脸的中国AI春晚,还开源了一大堆大模型成果

规格拉满!Llama和Sora作者都来刷脸的中国AI春晚,还开源了一大堆大模型成果

本周国内最受关注的AI盛事,今日启幕。 活动规格之高,没有哪个关心AI技术发展的人能不为之吸引—— Sora团队负责人Aditya Ramesh与DiT作者谢赛宁同台交流,李开复与张亚勤炉边对话,Llama2/3作者Thomas Scialom,王小川、杨植麟等最受关注AI创业者……也都现场亮相。

来自主题: AI资讯
4290 点击    2024-06-15 13:16
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。

来自主题: AI技术研报
8543 点击    2024-06-11 10:06