
一个超实用脚本,让你的DeepSeek自动重试解放双手。
一个超实用脚本,让你的DeepSeek自动重试解放双手。前两天我也连更两篇,写了怎么用硅基流动的API、秘塔联网搜索调用R1。虽然这俩体验起来都很不错,可很多人还是觉得DeepSeek官方版的最好,就想用官方的,确实这也没毛病。但是DeepSeek官方那边,这两天当然还是很卡。
前两天我也连更两篇,写了怎么用硅基流动的API、秘塔联网搜索调用R1。虽然这俩体验起来都很不错,可很多人还是觉得DeepSeek官方版的最好,就想用官方的,确实这也没毛病。但是DeepSeek官方那边,这两天当然还是很卡。
当我们惊叹于Deepseek的妙语连珠时,是否正目睹硅基系统对人类语言本源的复刻?那在服务器集群中奔流的矩阵运算,与人脑皮层间跳跃的神经电波,究竟共享着怎样的“语言密码”?
节后第一周,联想在接入DeepSeek并预告与DeepSeek“讨论更多深入合作可能性”后,股价大涨31.53%。截至2025年2月7日休市,联想总市值已来到1515.85亿港元,创下历史新高。
就在不久前,飞书也宣布接入了 DeepSeek-R1,这相当于在我们日常熟悉的办公软件中又探索出了一种全新的 AI 交互方式。
DeepSeek的含金量还在上升,一个半个周末过去发生这些大事:国家超算互联网平台上线DeepSeek-R1,最高支持671B的满血版。达摩院玄铁芯片成功适配DeepSeek-R1系列蒸馏模型,在RISC-V架构CPU和端侧平台打开新的应用空间。
「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。
xAI、谷歌DeepMind和Anthropic的CEO们纷纷对DeepSeek的技术创新性提出质疑,认为其并未带来实质性的科学突破。AI大佬纷纷泼冷水,到底是技术讨论还是各怀目的?
我前几天也一直在写DeepSeek的使用教程,想选出尽量最简单最好上手的方式让大家都能舒服的体验这波热潮。但是我发现,自第一天干崩硅基流动、第二天干崩秘塔AI搜索后,涌现出来的三方平台越来越多了,写不完,根本写不完。
DreamTech,由牛津大学、南京大学等顶尖高校研究者组成的AI创业团队,在春节期间公布了他们在3D生成方向上的新工作成果——Neural4D 2.0(初版名为Direct3D),提出了创新性的3D Assembly Generation算法思路及更高效的模型架构
就在刚刚,AIME 2025 I数学竞赛的大模型参赛结果出炉,o3-mini取得78%的最好成绩,DeepSeek R1拿到了65%,取得第四名。然而一位教授却发现,某些1.5B小模型竟也能拿到50%,莫非真的存在数据集污染?