
曾获a16z早期投资,AI医疗代理Hippocratic AI最新估值已达16.4亿美元
曾获a16z早期投资,AI医疗代理Hippocratic AI最新估值已达16.4亿美元用AI代理技术革新医疗行业。据联合国数据,全球65岁及以上人口将从2020年的7.27亿增至2030年的10亿,占总人口比例从9.3%升至12%。这一人口结构变化使医疗需求大增,也加剧了医疗行业人力资源短缺。预计到2025年,美国注册护士短缺或达45万人,国内全科医生空缺预计达100万。
用AI代理技术革新医疗行业。据联合国数据,全球65岁及以上人口将从2020年的7.27亿增至2030年的10亿,占总人口比例从9.3%升至12%。这一人口结构变化使医疗需求大增,也加剧了医疗行业人力资源短缺。预计到2025年,美国注册护士短缺或达45万人,国内全科医生空缺预计达100万。
DeepSeek版o1,有消息了。还未正式发布,已在代码基准测试LiveCodeBench霸榜前三,表现与OpenAI o1的中档推理设置相当。注意了,这不是在DeepSeek官方App已经能试玩的DeepSeek-R1-Lite-Preview(轻量预览版)。
本期《智者访谈》邀请到著名开源语音识别项目 Kaldi 的创始人、小米集团语音首席科学家 Daniel Povey 博士。作为推动全球智能语音处理产业化的关键人物,他见证了语音识别技术从实验室走向大规模应用的全过程。十多年前,他在微软研究院的实习生,如今已成为 Google Gemini 等标志性项目的负责人。
Ben Hylak从最初对o1不满到逐渐掌握使用技巧,成功将其转化为解决重要问题的得力工具。本文探讨了如何正确使用o1,解锁其强大的报告生成和推理分析能力。
【新智元导读】逆龄AI真的被OpenAI实现了!新模型GPT-4b micro通过蛋白质重编程技术,有望将人类寿命延长十年。
近年来,视觉大模型(Large Vision Language Models, LVLMs)领域经历了迅猛的发展,这些模型在图像理解、视觉对话以及其他跨模态任务中展现出了卓越的能力。然而,随着 LVLMs 复杂性和能力的增长,「幻觉现象」的挑战也日益凸显。
家人们,本来咱们想写一篇 TikTok 退出历史舞台的文章,结果小鹿看到:
在 24 年 4 月,我们第一次得知了 Flowith 这个产品,随后便被它创新的交互模式与独特的 AI 生成工作流的 Oracle Agent 所吸引。创始人 Derek 在社交媒体上的帖子也非常振奋人心。与特工们气味相投,有种理想主义的极客风格。
RPA虽然能完成任务的80%,但在20%的失败情况中,仍然需要人工介入;下一代的RPA将由AI Agent来完成,而不是依赖传统的RPA。
据外电报道,就在谷歌与美联社签署协议的第二天,Mistral 还宣布与法新社 (AFP) 达成内容协议,以提高Mistral 聊天机器人产品Le Chat的答案的准确性。对于这家总部位于巴黎的人工智能公司来说,这是第一笔此类交易。这表明 Mistral 不想被视为仅仅一家基础模型制造商。
2024又是AI精彩纷呈的一年。LLM不再是AI舞台上唯一的主角。随着预训练技术遭遇瓶颈,GPT-5迟迟未能问世,从业者开始从不同角度寻找突破。以o1为标志,大模型正式迈入“Post-Training”时代;开源发展迅猛,Llama 3.1首次击败闭源模型;中国本土大模型DeepSeek V3,在GPT-4o发布仅7个月后,用 1/10算力实现了几乎同等水平。
10 个月前,闫俊杰也接受过《晚点》访谈,那时他提了 16 次字节、47 次 OpenAI,8 次 Anthropic。这次再聊,他主动提字节少了,提 Anthropic 多了。这与行业风向形成微妙的反差。
测试共振式写法的一例, 科幻小说 Prompt。 Happy Prompting.取刘慈欣短篇小说《朝闻道》的故事梗概作为测试内容。输入:外星人降临地球,他们宣称已经掌握了宇宙的终极答案,但人类不能免费获得,需要拿自己的一条命,获得一次提问答案的机会。现在选择权到了人类科学家的手中。
Fermata是一家专门从事农业计算机视觉解决方案的数据科学公司,在Raw Ventures支持的A轮融资中获得了1000万美元。这项投资将支持该公司为农业行业开发集中式数字大脑的战略愿景,通过先进的数据分析实现作物的自主管理,创建一个不断发展的系统,不断从可用数据中学习。
近日,珞博智能(Robopoet)官方发布一则消息,前字节大模型解决方案架构师潘雨楠(Yuna)正式加入珞博,出任联合创始人兼首席技术官(CTO)。潘雨楠本科毕业于哈尔滨工业大学,又在香港大学取得计算机专业硕士学位,她的学术背景为其在科技领域的发展奠定了坚实基础。
2025年被很多人视为 Agent 之年,确实值得多关注。今天分享的这篇,应该是全网关于Agent话题最深入的讨论了,大概没有之一,从前沿研究、交互设计到产品落地,全文超过三万字,一篇看明白。
大模型的记忆片段进行多次替换的时候,会导致模型输出的内容叠加不同记忆片段,出现混淆和错乱的问题。在我做 Crew.ai 知识库测试的时,替换多份知识库文档后,发现大模型已经疯了。
什么,歪果仁怀疑咱中国的宇树机器人昨天释放的最新视频,是特效?
不断迭代简单的提示词「write better code」,代码生成任务直接提速100倍!不过「性能」并不是「better」的唯一标准,还需要辅助适当的提示工程,也是人类程序员的核心价值所在。
与 Devin 合作一个月后,这些研究者给出了不太乐观的反馈。
昨天,我们报道了一个行业猜想,说是 OpenAI 和 Anthropic 等前沿大模型公司可能已经训练出了下一代大模型,但由于它们的使用成本过高,所以短时间内根本不会被放出来。
大型语言模型(LLMs)能够解决研究生水平的数学问题,但今天的搜索引擎却无法准确理解一个简单的三词短语。
一个新框架,让Qwen版o1成绩暴涨: 在博士级别的科学问答、数学、代码能力的11项评测中,能力显著提升,拿下10个第一! 这就是人大、清华联手推出的最新「Agentic搜索增强推理模型框架」Search-o1的特别之处。
OpenAI,有大事发生!最近各种爆料频出,比如OpenAI已经跨过「递归自我改进」临界点,o4、o5已经能自动化AI研发,甚至OpenAI已经研发出GPT-5?OpenAI员工如潮水般爆料,疯狂暗示内部已开发出ASI。
对于 LLM,推理时 scaling 是有效的!这一点已经被近期的许多推理大模型证明:o1、o3、DeepSeek R1、QwQ、Step Reasoner mini……
划时代的突破来了!来自NYU、MIT和谷歌的顶尖研究团队联手,为扩散模型开辟了一个全新的方向——测试时计算Scaling Law。其中,谢赛宁高徒为共同一作。
降低扩散模型生成的计算成本,性能还保持在高水平! 最新研究提出一种用于极低位差分量化的混合精度量化方法。
前两天,在游戏论坛闲逛时,看见一个帖子说《逆水寒》手游更新了。这个 AI 浓度超高的游戏最近多了几位各有特色的「AI 娘」,还多了一种名叫「AI 大模型竞技场」的新玩法。
刚刚,X 上的一则帖子爆火,浏览量达到 30 多万。 该推文涉及引领 AI 潮流的 OpenAI。内容显示「OpenAI 递归式自我改进目前在一个盒子里,准确的说是在一个无法破解的盒子!」
马斯克建超算速度,被中国这家公司用120天复刻了。119个集装箱,像搭积木一样拼出一座算力工厂。这不是科幻电影,而是浪潮信息交付的惊艳答卷。一个全新的AI时代,正在这里拉开序幕。