AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
中科大等意外发现:大模型不看图也能正确回答视觉问题!

中科大等意外发现:大模型不看图也能正确回答视觉问题!

中科大等意外发现:大模型不看图也能正确回答视觉问题!

大模型不看图,竟也能正确回答视觉问题?!中科大、香港中文大学、上海AI Lab的研究团队团队意外发现了这一离奇现象。他们首先看到像GPT-4V、GeminiPro、Qwen1.5-72B、Yi-VL-34B以及LLaVA-Next-34B等大模型,不管是闭源还是开源,语言模型还是多模态,竟然只根据在多模态基准MMMU测试中的问题和选项文本,就能获得不错的成绩。

来自主题: AI技术研报
6878 点击    2024-04-07 13:10
OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

关注 OpenAI核心创始成员Andrej Karpathy 深度分享AI大模型发展及Elon管理法则。近日,OpenAI核心创始成员Andrej Karpathy(已于24年2月离职)在红杉资本进行了一场精彩的分享。

来自主题: AI资讯
8317 点击    2024-04-07 13:09
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊

从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊

从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊

全球每年有近 500 万人死于抗生素耐药性,因此迫切需要新的方法来对抗耐药菌株。AI 方法可以发现新的抗生素,但现有方法有明显的局限性。性质预测模型很难扩展到大型化学空间。直接设计分子的生成模型可以快速探索广阔的化学空间,但生成的分子难以合成。

来自主题: AI技术研报
6721 点击    2024-04-06 15:23
ICLR 2024 | 联邦学习后门攻击的模型关键层

ICLR 2024 | 联邦学习后门攻击的模型关键层

ICLR 2024 | 联邦学习后门攻击的模型关键层

联邦学习使多个参与方可以在数据隐私得到保护的情况下训练机器学习模型。但是由于服务器无法监控参与者在本地进行的训练过程,参与者可以篡改本地训练模型,从而对联邦学习的全局模型构成安全序隐患,如后门攻击。

来自主题: AI技术研报
5845 点击    2024-04-06 15:16
「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。

来自主题: AI技术研报
8520 点击    2024-04-06 14:48
论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

特工少女说:顾洲洪老师是复旦大学数据科学博士,最近新发表了一篇《AgentGroupChat: An Interactive Group Chat Simulacra For Better Eliciting Emergent Behavior》的论文,此文是顾老师自己对论文的解读,经授权转载自顾老师的知乎,点击文末阅读原文可跳转原文链接,学术交流可加文末顾老师的微信。

来自主题: AI技术研报
6392 点击    2024-04-06 13:58
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

“只需”10万美元,训练Llama-2级别的大模型。尺寸更小但性能不减的MoE模型来了:它叫JetMoE,来自MIT、普林斯顿等研究机构。性能妥妥超过同等规模的Llama-2。

来自主题: AI技术研报
9098 点击    2024-04-05 17:13
谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

来自主题: AI技术研报
8295 点击    2024-04-05 17:04
最懂AI的诺奖经济学得主去世,大模型关键技术受他研究启发

最懂AI的诺奖经济学得主去世,大模型关键技术受他研究启发

最懂AI的诺奖经济学得主去世,大模型关键技术受他研究启发

一位90岁巨擘的逝世,正在牵动整个科技圈的关注。 正如YC创始人Paul Graham所说: 我关注的每一个人,都在对丹尼尔·卡尼曼表达敬意。

来自主题: AI技术研报
6744 点击    2024-04-05 16:42