
Claude 更新,有惊喜!AI 直接操作电脑,产品创新遥遥领先 OpenAI
Claude 更新,有惊喜!AI 直接操作电脑,产品创新遥遥领先 OpenAI来了!Claude 发布新版本的 3.5 Sonnet 和新发布的 3.5 Haiku,能力都有大进步。
来了!Claude 发布新版本的 3.5 Sonnet 和新发布的 3.5 Haiku,能力都有大进步。
CuspAI 预言到 2050 年,碳捕获行业价值将达到 4 万亿美元
重构一新可以为芯片平台厂商带来巨大机遇,但是,小米、vivo、三星等OEM大厂别有一番心思。
太平洋证券分析师郑磊认为,下半年以来,国内AI视频模型优势显著。
随着技术的进一步成熟和需求的增长,具身智能将从小众市场走向大众市场。
AI时代,家装厂商紧跟时代布局商家智能体,收获的将不仅仅是一个新型营销工具,还有转型升级、破卷突围的更多机遇。
GPU租用市场越来越玄幻了,价格被打下来的原因,居然可以是天命人闲置的4090被循环利用了?
“这是我听过的黄仁勋最好的采访!”
手机厂商动作频繁的10月,OPPO也带着搭载系统级AI的新系统闪亮登场。
开源数字人实时对话Demo来了~
就在刚刚,Claude来了波大的—— 发布名叫Computer Use的新功能,可以让Claude像人一样使用计算机!
GAGAvatar的出现正是为了解决这一瓶颈,通过一次前向传播就能生成3D高斯参数,实现高效的渲染与动画驱动。
Mistral 7B诞生一周年之际,法国AI初创公司Mistral再次连发两个轻量级模型Ministral 3B和Ministral 8B,性能赶超Llama 3 8B。
Time-MoE采用了创新的混合专家架构,能以较低的计算成本实现高精度预测。研发团队还发布了Time-300B数据集,为时序分析提供了丰富的训练资源,为各行各业的时间序列预测任务带来了新的解决方案。
在NLP领域,研究者们已经充分认识并认可了表征学习的重要性,那么视觉领域的生成模型呢?最近,谢赛宁团队发表的一篇研究就拿出了非常有力的证据:Representation matters!
在 TikTok 上,Daze 最受欢迎的视频已被观看了 800 万次。在TikTok和Instagram上,旨在针对 Z 世代的新消息应用背后的初创公司已获得约 4800 万的总观看次数。
人工智能是一个新产品,改善供应链以更快地治愈问题,优化员工生产力和员工留存率,提高客户收入,这就是一切的核心
几个小时前,Claude 3.5 模型迎来了一波大更新。Anthropic 推出了升级版的 Claude 3.5 Sonnet 以及一款新模型 Claude 3.5 Haiku。
就在刚刚,Stability AI发布了自家最强的模型Stable Diffusion 3.5,而且是一个全家桶,包含三个版本。
最近OpenAI和谷歌放出的多智能体招聘信息,这可能预示着AI开发的下一个阶段。
RAG通过纳入外部文档可以辅助LLM进行更复杂的推理,降低问题求解所需的推理深度,但由于文档噪声的存在,其提升效果可能会受限。中国人民大学的研究表明,尽管RAG可以提升LLM的推理能力,但这种提升作用并不是无限的,并且会受到文档中噪声信息的影响。通过DPrompt tuning的方法,可以在一定程度上提升LLM在面对噪声时的性能。
“游戏+AI”成为行业共识。大模型,又添一位新玩家。 前不久,米哈游旗下大模型Glossa通过人工智能服务备案,将成为改善用户游戏体验的关键抓手。 这意味着,米哈游想吃AI的红利。
近日,GitHub 被曝一直在悄悄地向 VS Code 引入新的扩展 API,但是这些 API 只能由其 Copilot 使用。
人工智能拥有颠覆游戏产业的潜力 多年来,游戏产业似乎是一个势不可挡的“巨无霸”,随着游戏内容的不断丰富和移动游戏的蓬勃发展,游戏收入也不断攀升。
上周台积电发布完Q3财报后,上涨了10%带动了AI芯片股集体上涨,WEDBUSH、高盛、JP摩根,大摩等金融机构在Q3财报后发布了最新研报。
今日,综合凤凰网科技、新浪科技等多家媒体报道称,AI大模型公司波形智能已于近期解散,包括CEO、CTO在内的多位团队核心成员已经集体入职OPPO。
Claude 3.5深夜迎来重磅升级! 不出所料,Anthropic AI这周终于有了大动作——首发Claude 3.5 Haiku,全新升级版Claude 3.5 Sonnet也来了。
你绝对没有看错,这款产品就是要用AI来分析和检查你的便便,从而了解你的肠道健康和水分摄入等情况。
让 AI 与人类价值观对齐一直都是 AI 领域的一大重要且热门的研究课题,甚至很可能是 OpenAI 高层分裂的一大重要原因 ——CEO 萨姆・奥特曼似乎更倾向于更快实现 AI 商业化,而以伊尔亚・苏茨克维(Ilya Sutskever)为代表的一些研究者则更倾向于先保证 AI 安全。