AI资讯新闻榜单内容搜索-context

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: context
速递|AI办公Context获1100万美元融资,估值7000万美元,打造能“逻辑推演”数据的AI办公

速递|AI办公Context获1100万美元融资,估值7000万美元,打造能“逻辑推演”数据的AI办公

速递|AI办公Context获1100万美元融资,估值7000万美元,打造能“逻辑推演”数据的AI办公

Context 是一家开发人工智能办公套件的初创公司,于5 月 28 日宣布完成 1100 万美元种子轮融资,由 Lux Capital 领投,高通创投和 General Catalyst 跟投。此轮融资使公司总融资额达到约 1575 万美元,估值达 7000 万美元。

来自主题: AI资讯
4809 点击    2025-05-29 18:32
谷歌ToC助手炸场,飞书ToB“知识问答”跟牌

谷歌ToC助手炸场,飞书ToB“知识问答”跟牌

谷歌ToC助手炸场,飞书ToB“知识问答”跟牌

北京时间5月21日凌晨,谷歌在每年一度的I/O大会上再度炸场——谷歌搜索的AI模式正式上线。其中,最受瞩目的一个功能是Personal Context(个人上下文)。北京时间5月21日凌晨,谷歌在每年一度的I/O大会上再度炸场——谷歌搜索的AI模式正式上线。其中,最受瞩目的一个功能是Personal Context(个人上下文)。

来自主题: AI资讯
7425 点击    2025-05-21 10:13
精准提取数据太折磨人,试下pip install -U contextgem,自动生成提示 | 痛快

精准提取数据太折磨人,试下pip install -U contextgem,自动生成提示 | 痛快

精准提取数据太折磨人,试下pip install -U contextgem,自动生成提示 | 痛快

最近ContextGem很火。它既不是RAG也不是Agent,而是专注于"结构化提取"的框架,它像一个"文档理解层",通过文档中心设计和神经网络技术(SAT)将非结构化文档转化为精确的结构化数据。它可作为RAG的前置处理器、Agent的感知模块,也可独立使用。

来自主题: AI技术研报
7252 点击    2025-05-14 15:12
OpenAI 收购 Context.ai 团队,AI 评估能力再升级

OpenAI 收购 Context.ai 团队,AI 评估能力再升级

OpenAI 收购 Context.ai 团队,AI 评估能力再升级

科技媒体 maginative 今天(4 月 16 日)发布博文,报道称 OpenAI 宣布收购 Context.ai团队,后者是一家由 GV 支持的初创公司,以评估和分析 AI 模型见长。Context.ai的联合创始人 Henry Scott-Green(首席执行官)和 Alex Gamble(首席技术官)将加入 OpenAI,专注于研发模型评估工具。

来自主题: AI资讯
7869 点击    2025-04-16 10:58
Exa:给 AI Agent 的 “Bing API”

Exa:给 AI Agent 的 “Bing API”

Exa:给 AI Agent 的 “Bing API”

Agentic AI 的 3 要素是:tool use,memory 和 context,围绕这三个场景会出现 agent-native Infra 的机会。

来自主题: AI技术研报
7122 点击    2025-04-08 10:10
Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

一句话提示,Claude自动化打开Blender将2D图片转为3D建模。背后关键还是最近大火的MCP(Model Context Protocol)——复刻Manus的重要诀窍。将这套协议和Blender打通,即可获得如上效果。该开源项目BlenderMCP,上线短短3天,GitHub标星已达3.8k。

来自主题: AI资讯
10038 点击    2025-03-15 13:32
你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

大家对in-context learning(ICL)的能力可能已经很熟悉了,您通常会通过上下文示例就能快速让prompt适应新任务。然而,作为AI应用开发者,您是否思考过:为什么有时候精心设计的few-shot prompt会失效?为什么相同的prompt模式在不同场景下效果差异巨大?

来自主题: AI技术研报
5382 点击    2024-11-05 09:17
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6170 点击    2024-10-11 13:55
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
4709 点击    2024-09-11 10:17