
Contextual AI:从幻觉到可信,钻研RAG架构解决企业级AI应用落地最大痛点
Contextual AI:从幻觉到可信,钻研RAG架构解决企业级AI应用落地最大痛点RAG(检索增强生成)作为解决大模型"幻觉"和知识时效性问题的关键技术,已成为企业AI应用的主流架构。Contextual AI由RAG技术的创始研究者组建,致力于开发能应对复杂知识密集型任务的专业智能体。
RAG(检索增强生成)作为解决大模型"幻觉"和知识时效性问题的关键技术,已成为企业AI应用的主流架构。Contextual AI由RAG技术的创始研究者组建,致力于开发能应对复杂知识密集型任务的专业智能体。
今年初以 DeepSeek-r1 为代表的大模型在推理任务上展现强大的性能,引起广泛的热度。然而在面对一些无法回答或本身无解的问题时,这些模型竟试图去虚构不存在的信息去推理解答,生成了大量的事实错误、无意义思考过程和虚构答案,也被称为模型「幻觉」 问题,如下图(a)所示,造成严重资源浪费且会误导用户,严重损害了模型的可靠性(Reliability)。
不久前,《纽约客》杂志的一篇文章,系统性地阐述了对AI作为写作工具的忧虑。[1]文章的核心观点是,AI的高效内容生成能力,或许正在悄然催生一场“平庸化的革命”,它不仅改变着我们的写作方式,也可能让我们在语言表达和原创思维上,趋于某种程度的同质化。
Agent 的反义词是什么?
OpenAI如何以自下而上的文化和行动导向,推动大模型突破?从零到上线仅用7周,Calvin带你走进OpenAI编程智能体Codex的诞生过程,体验高强度冲刺的魔力。
我们独家获悉,大模型公司 MiniMax 近 3 亿美元的新一轮融资已接近完成,投后估值超过 40 亿美元(约 300 亿元人民币)。结合公开信息,目前国内达到这一估值的大模型公司有 MiniMax 和智谱。
今天,我们正式发布MiniMax Agent全栈开发功能。这可能是全球首个 在复杂全栈网站应用上高交付率 的Agent。它支持Supabase后端托管、Stripe支付功能、cron job定时任务、长链接维持等能力,可开发需要API、实时数据、下单支付、LLM调用、定时任务、登录注册等功能的各类应用。
近日,基于自研多模态大模型,旨在打造AI应用的“超级感官”与“真大脑”的创业公司——无界方舟(AutoArk)宣布连续完成Pre-A & Pre-A+轮亿元级别融资
GPT-4o、Gemini这些顶级语音模型虽然展现了惊人的共情对话能力,但它们的技术体系完全闭源。
超长上下文窗口的大模型也会经常「失忆」,「记忆」也是需要管理的。