不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?
无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?
2022年末,当ChatGPT的火种刚刚在全球点燃,引发第一波的震撼与惊叹时,张宏波进行了一项实验。他将自己刚刚孕育雏形的编程语言MoonBit的文法(Grammar)——一段描述语言规则的枯燥文本,喂给了那个强大的新模型。
LLM 和 agent 最关键的能力之一就是基于 context 来准确完成用户的任务,而最真实、鲜活的 context 往往不在 Google doc 等文档中,而是存在人与人的对话中,纪要就承载着这一类高价值信息。
我们常把LangGraph、RAG、memory、evals等工具比作乐高积木,经验丰富的人知道如何搭配使用,就能迅速解决问题
GraphRAG的索引速度慢,LightRAG的查询延迟高?
知识图谱(KGs)已经可以很好地将海量的复杂信息整理成结构化的、机器可读的知识,但目前的构建方法仍需要由领域专家预先创建模式,这限制了KGs的可扩展性、适应性和领域覆盖范围。
「十字路口」的每一次选题、每一场活动,都像投早期项目 ——我们不只是做内容,而是希望成为「创业者声量放大器 + 早期项目雷达」。
Chris Pedregal是Granola的联合创始人兼首席执行官。Granola是一款由AI驱动的智能会议记录工具,正在重新定义知识工作者的工作方式,帮助用户更高效地记录、组织和调用对话中的关键信息。本文是Invest Like the Best主持人Patrick O'Shaughnessy与Chris Pedregal的访谈实录,访谈播客于2025年2月播出。
Claude团队来搞开源了——推出“电路追踪”(circuit tracing)工具,可以帮大伙儿读懂大模型的“脑回路”,追踪其思维过程。该工具的核心在于生成归因图(attribution graphs),其作用类似于大脑的神经网络示意图,通过可视化模型内部超节点及其连接关系,呈现LLM处理信息的路径。
笔记工具并不是一个传统意义上的热门投资赛道,在 Google Keep、Apple Notes、OneNote、Evernote 之外,只有 Notion 冲出了重围。