腾讯掀桌!0.4G翻译模型,手机断网都能跑,比谷歌翻译得好
腾讯掀桌!0.4G翻译模型,手机断网都能跑,比谷歌翻译得好今日,腾讯混元开源翻译模型Hy-MT1.5-1.8B-1.25bit。该模型仅0.4G,就实现了33种语言高质量互译,且下载后可直接在手机本地离线运行,翻译表现优于谷歌翻译。这一原始模型的参数规模为1.8B,为降低用户手机内存压力,腾讯混元团队通过量化压缩推出了适配中高性能手机的2-bit、适配全系列手机的1.25-bit两种方案,模型体积分别被压缩至574MB、440MB。
今日,腾讯混元开源翻译模型Hy-MT1.5-1.8B-1.25bit。该模型仅0.4G,就实现了33种语言高质量互译,且下载后可直接在手机本地离线运行,翻译表现优于谷歌翻译。这一原始模型的参数规模为1.8B,为降低用户手机内存压力,腾讯混元团队通过量化压缩推出了适配中高性能手机的2-bit、适配全系列手机的1.25-bit两种方案,模型体积分别被压缩至574MB、440MB。
就在刚刚, DeepSeek 上线了识图模式,显示正在灰测中。这意味着讨论了一整年的 DeepSeek 多模态能力,终于来了!目前 DeepSeek 网页版和 App 更新后都有可能被灰测到识图模式,APPSO 第一时间给大家进行了实测。
一个从未生产过任何产品的品牌,被AI认定为"值得推荐"。从注册到上榜,两个小时。这不是故事的开头。这是315晚会上,所有人都看到的那一幕。为了搞清楚当下GEO市场的扑朔迷离,摸清楚那些GEO的坑到底是怎么产生的虚假资质、批量灌稿、数据造假,手法越来越隐蔽,规模越来越工业化。315撕开的那道口子,下面是一整座冰山。
你敢信?一个活在95年前的AI,竟写出了Python代码。GPT之父下场,用2600亿Token炼出了一个「老古董」AI——「talkie」。
Claude Design前脚刚暴击完设计行业,结果后脚自己就被暴击了。出手的是来自中国的Kimi K2.6。什么??你跟我说小克专门为设计推出的工具,竟然没打过Kimi最新通用旗舰模型??
70万行祖传代码,人走了一拨又一拨,烂尾工程停摆三年没人敢碰。直到首席开发者给Claude Code写了份「说明书」,项目两周收工。
腾讯ima最新上线了copilot模式,你可以“领养”一只小熊猫,自由设定人设、性格、说话风格。让它记住你的习惯、你的资料、你做过的事,调教出一个会说话、会干活的专属知识伙伴。
程序员们,先别忙着焦虑 AI 会抢走你的饭碗。现在更该焦虑的,可能是你们的 CTO 和 CFO 了:因为让 AI 写代码,实在太烧钱了。今天(4 月 28 日),GitHub 宣布从 2026 年 6 月 1 日起,GitHub Copilot 将告别“无限畅饮”模式,将 Copilot 从“按请求计费”转为“按使用量计费”。
刚刚,Anthropic年收入飙至300亿美元,正式超越OpenAI的240亿!这家由OpenAI前员工创立的公司,15个月翻了30倍,训练成本仅对手四分之一。硅谷最戏剧性的「叛将逆袭」,正在改写AI产业格局。
昨天,我日常「监管」抖音的时候,刷到一条视频,看完后真愣了大概十秒钟。还以为熬夜熬的太狠,眼睛真花了。 一个我从来没听说过的小产品,居然把一个 AI 情感陪伴产品,做进了 微信的主联系人列表 里。 这
云计算一哥,亚马逊云科技的龙虾,刚刚也被端上桌了。这只龙虾叫做Amazon Quick。它就是“活”在你电脑里的那种,直接连接你的本地文件、日历、邮件和各类应用,不需要任何上传文件的动作(需授权)。
由张昊天作为一作兼共同通讯作者在临港实验室联合上海浦江实验室、华盛顿大学、哈佛大学、MIT 等科研力量共同推进的 ODesign 开源科研项目,定位于全球首个面向全模态的分子设计基座模型。
近日,字节跳动旗下AI制药子公司Anew Therapeutics在AAI 2026上进行了口头报告,披露旗下位于临床前阶段的IL-17小分子抑制剂。该药物是全球首个小分子全谱(AA/AF/FF)IL-17抑制剂,利用AI驱动的虚拟筛选技术,结合分子生成算法成功识别而来,有望转化为银屑病和其他自身免疫性疾病的最佳治疗方法。
Anthropic今天宣布与Blender、Autodesk、Adobe、Ableton、Splice等多家合作伙伴联合推出一批连接器,涵盖了3D建模、平面设计、音乐制作和现场视觉等多个领域的创意工具,让Claude能够直接在创意专业人士日常使用的软件中运行。
昨天,OpenAI 和微软,官宣分手,今天,OpenAI 已在 AWS 把家安好。三件家具一起搬上:模型、Codex、Managed Agents。包括 GPT-5.5 在内的模型,今天起可以在 Amazon Bedrock 直接调用
这是一场前所未有的发布会。直播中,超维动力(Kinetix AI)联合创始人 Tyler Zheng 首先亮相,但并没说几句话,就话锋一转:「我们相信如果机器人已经足够拟人,也许它也可以自己来介绍自己。」就把舞台交给了今天的主角 KAI。
商汤刚刚开源了一个全新架构的理解生成统一模型SenseNova-U1,虽然小尺寸版本只有8B,却能复刻不少GPT-Image-2的拿手绝活。太阳系图解,八大行星各自的轨道、属性、图文介绍一应俱全,看着挺像那么回事。
就在这一背景下,银河通用联合清华北大英伟达等众多机构联合发布了跨本体「隐式世界-动作基础模型」LDA-1B,将目光投向了具身智能 Scaling Law 的这个终极命题:如何让模型有效利用互联网规模的异构数据。
没错,用的就是主打长程任务、模糊指令遵循,跻身国产Agent第一梯队的小米MiMo‑V2.5 Pro。小米最新发布的MiMo‑V2.5系列,包含Pro旗舰Agent、全模态基座、TTS语音合成、ASR语音识别四大模型,综合实力对标国际顶尖水准。
红警不再只是童年游戏,而成了AI Agent的硬核训练场:OpenRA-RL把25Hz实时战场、50个工具调用和64局并发打包开源,让大模型第一次真正站上RTS战争迷雾里的公开考场。
在语言学中,人类之所以能听懂“那个东西”、“它”、“这个重物”,依赖于桥接推理理论 (bridging inference),即通过上下文信息在已有记忆与当前表达之间建立联系,从而恢复指代对象。
最近,AI教父Hinton发出最尖锐警告:不受监管的AI就是一辆没有方向盘的高速跑车!全球只有1%的AI研究在做安全,4.8万亿美元的巨兽正在失控加速。
瓜多到一度吃不下的ICLR 2026,这几天终于在巴西开线下了!!没去不要紧,最热闹最好玩的,咱都已经总结好了:随机一个场景都有可能“掉落”LeCun这位巨佬NPC,学术追星人纷纷带着合照意满离;
新加坡国立大学 Bingsheng He 教授团队一篇最新入选 ICLR 2026 Oral 的论文,把视角放在了一个更贴近日常使用场景的问题上:人们更熟悉的,是用户故意诱导模型说假话的情形;而这篇工作真正追问的是,在没有刻意诱导、只是正常提问的情况下,模型会不会也出现某种 “表面这样答,实际那样想” 的现象。
四月真是如风驰电掣:Anthropic 发布了 Opus 4.7,OpenAI 发布了 GPT 5.5,最后,DeepSeek 更新了暌违已久的 V4。三家公司的发布通稿读起来都差不多:跑分又涨了,上下文更长了,推理更强了,代码能力又创了新高。
科技博主兼 AI 系统架构师 Sean Donahoe 在今天凌晨发了一条帖子。他写道:这条帖子实际上有两个看点。第一,发帖人是重度 AI 编程用户,却几乎一夜之间完成迁移,月账单会从几千美元降到几百美元。第二,他不只是说便宜,还强调效果没有变差,反而更好:“输出质量提高了,而不是下降,这一点已经通过内部测试以及多个公开基准验证”。
主要作者团队:Yuxin Chen 现为伊利诺伊大学厄巴纳 - 香槟分校(UIUC)硕士一年级学生,Chumeng Liang 为 UIUC 博士一年级学生,Hangke Sui 为 UIUC 博士二年级学生,Ge Liu 为 UIUC 计算机系助理教授。Liu Lab 团队长期聚焦扩散 / 流模型方向,
近日,琶洲实验室、华南理工大学、蔻町(AIGCode)等单位科研团队联合提出潜在空间压缩注意力(Latent-Condensed Attention,LCA),研究成果入选 ACL 2026。
4月20日,最高人民法院副院长陶凯元在2026年知识产权宣传周新闻发布会上,说了一句被很多人忽略的话:「数据、人工智能等新兴领域技术迭代快,权利边界和权属相对复杂,保护规则亟需明确。人民法院妥善审理涉AI生成内容、AI模型参数等前沿问题的民事案件……最高人民法院正在抓紧起草关于依法妥善审理涉人工智能纠纷案件的意见,努力推动人工智能朝着有益、安全、公平的方向健康有序发展。」
根据《华尔街日报》报道,在中国国家发改委于周一要求撤销相关收购交易后,Meta 正在准备撤销对 Manus 的收购。