AI资讯新闻榜单内容搜索-框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 框架
谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

近,来自澳大利亚蒙纳士大学、蚂蚁集团、IBM 研究院等机构的研究人员探索了模型重编程 (model reprogramming) 在大语言模型 (LLMs) 上应用,并提出了一个全新的视角

来自主题: AI技术研报
7134 点击    2024-04-14 13:07
XAI有什么用?探索LLM时代利用可解释性的10种策略

XAI有什么用?探索LLM时代利用可解释性的10种策略

XAI有什么用?探索LLM时代利用可解释性的10种策略

近日,来自佐治亚大学、新泽西理工学院、弗吉尼亚大学、维克森林大学、和腾讯 AI Lab 的研究者联合发布了解释性技术在大语言模型(LLM)上的可用性综述,提出了 「Usable XAI」 的概念,并探讨了 10 种在大模型时代提高 XAI 实际应用价值的策略。

来自主题: AI资讯
6212 点击    2024-04-11 21:19
OpenAI创始大神手搓千行C代码训练GPT,附PyTorch迁移教程

OpenAI创始大神手搓千行C代码训练GPT,附PyTorch迁移教程

OpenAI创始大神手搓千行C代码训练GPT,附PyTorch迁移教程

纯C语言训练GPT,1000行代码搞定!,不用现成的深度学习框架,纯手搓。 发布仅几个小时,已经揽星2.3k。

来自主题: AI资讯
6320 点击    2024-04-11 10:18
腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索

大模型在今年的落地,除了对用 AI 对已有业务进行改造和提效外,算力和推理的优化,可能是另外一项重要的实践了。这在腾讯的两个完全不同的业务上有着明显的体现。

来自主题: AI资讯
10177 点击    2024-04-10 21:12
多模态大模型有了统一分割框架,华科PSALM多任务登顶,模型代码全开源

多模态大模型有了统一分割框架,华科PSALM多任务登顶,模型代码全开源

多模态大模型有了统一分割框架,华科PSALM多任务登顶,模型代码全开源

最近,多模态大模型(LMM)取得了一系列引人注目的成就,特别是在视觉 - 语言任务上的表现令人瞩目。它们的成功不仅展现了多模态大模型在各个领域的实用性和灵活性,也为更多视觉场景下的应用探索了新的道路。

来自主题: AI技术研报
5239 点击    2024-04-08 15:49
「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。

来自主题: AI技术研报
7231 点击    2024-04-06 14:48
论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

论文解读丨AI 争夺继承权?AgentGroupChat,为 AI 群聊打造的通用框架。

特工少女说:顾洲洪老师是复旦大学数据科学博士,最近新发表了一篇《AgentGroupChat: An Interactive Group Chat Simulacra For Better Eliciting Emergent Behavior》的论文,此文是顾老师自己对论文的解读,经授权转载自顾老师的知乎,点击文末阅读原文可跳转原文链接,学术交流可加文末顾老师的微信。

来自主题: AI技术研报
4067 点击    2024-04-06 13:58
谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

来自主题: AI技术研报
6287 点击    2024-04-05 17:04