
细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真
细思极恐,GPT-4竟串谋AI欺骗人类!哈佛PSU重磅揭秘「算法共谋」,AI教父预言正成真又一科幻场景步入现实!GPT-4竟和多个AI模型私自串通一气,欲要形成垄断的资本寡头联合定价。在被哈佛PSU团队抓现行后,大模型拒不认账。未来某天,AI会不会真要失控?
又一科幻场景步入现实!GPT-4竟和多个AI模型私自串通一气,欲要形成垄断的资本寡头联合定价。在被哈佛PSU团队抓现行后,大模型拒不认账。未来某天,AI会不会真要失控?
LLM可以比科学家更准确地预测神经学的研究结果!
最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。
只需一次人类示范,就能让智能体适应新环境?
10个小时前,Coze官方的一则最新通告,让人很特别惊喜。扣子可以直接应用开发,应用拖拉拽的方式,让无代码基础的同学,也可以搭建属于自己的AI应用,并不只限于在扣子界面进行互动.
随着基础模型(如VLMs,例如Minimax、Qwen-V)和尖端图像生成技术(如Flux 1.1)的快速发展,我们正进入一个创造性可能性的新纪元。结合像T5这样的模型以增强对潜在空间中文本提示的理解,这些工具使得生产广告级别的关键视觉(KVs)成为可能,且具有显著的真实感。
今年10月,OpenAI高级研究科学家、德扑AI之父Noam Brown,曾在美国旧金山举办的TED AI大会上提出了一个惊人的理论——让AI模型思考20秒所带来的性能提升,相当于将模型扩大100,000倍并训练100,000倍的时间。
OpenAI o1大火之后,国内外上演的AI推理能力竞赛可以说是2024下半年AI领域最大看点了。
让AI来评判AI,即利用大语言模型(LLM)作为评判者,已经成为近半年的Prompt热点领域。这个方向不仅代表了AI评估领域的重要突破,更为正在开发AI产品的工程师们提供了一个全新的思路。
超实时计算!智源模拟心脏,实现了生物时间与计算时间比为1:0.84。 一般来说,仿真时间与生物时间比达到1:1,就已经算是实时计算了。而在此之前的虚拟心脏仿真系统还没有实现过,如今,在更大规模和更高复杂度的心脏模型上实现了180倍的速度提升。
什么?Kimi底层推理架构刚刚宣布:开!源!了!
颠覆现有Agent范式、让AI拥有“主动能动性! 清华&面壁等团队最新开源新一代主动Agent交互范式 ( ProActive Agent)。
代码模型可以自己进化,利用自身生成的数据来进行指令调优,效果超越GPT-4o直接蒸馏!
你是否有过这样的感受,当你感觉焦虑的时候,做出的决策和反应都与正常情况下不同?
命运齿轮转动的开始,源于 2023 年的 3 月 23 日的 OpenAI 一次日常更新。
尽管近期 Qwen2-VL 和 InternVL-2.0 的出现将开源多模态大模型的 SOTA 提升到了新高度,但巨大的计算开销限制了其在很多场景下的应用。
最近,正处于评议阶段的 ICLR 2025 论文真是看点连连,比如前些天爆出的 ICLR 低分论文作者硬刚审稿人的事件以及今天我们要介绍的这个通过 rebuttal(反驳)硬是将自己的平均分拉高 2 分,直接晋升第 9 名的论文。
近日,《Mechanical System and Signal Processing》(MSSP)在线发表刊登北航 PHM 团队最新研究成果:基于大语言模型的轴承故障诊断框架(LLM-based Framework for Bearing Fault Diagnosis)。
这是一个不容小觑的最新推理框架,它解耦了LLM的记忆与推理,用此框架Fine-tuned过的LLaMa-3.1-8B在TruthfulQA数据集上首次超越了GPT-4o。
前段时间,笔者有幸参加了师兄主讲的《法律人如何使用AI系列讲座》第二期。讲座中提到,GPT不仅能够优化工作流程,还可以帮助没有任何编程经验的人编写代码。恰巧近期立案工作增加,需要逐一准备大量的立案材料(如所函、授权委托书、合同、介绍信等)。
在人工智能领域,与AI进行无缝的实时交互一直是开发者和研究者面临的一大挑战。特别是将文本、图片、音频等多模态信息整合成一个连贯的对话系统,更是难上加难。尽管像GPT-4这样的语言模型在对话流畅性和上下文理解上取得了长足进步,但在实际应用中,这些模型仍然存在不足之处:
在 EMNLP 2024 上,我们看到了向量模型的各种创新用法,其中最出人意料的莫过于:文本水印。
OpenAI科学家Jason Wei预测,未来一年内,AI重点将从推广大众需求转为促进科学发现,无独有偶,DeepMind刚刚发布的36页报告也揭示出:全球实验室AI使用正在指数级增长,AI for Science真正的黄金时代即将来临。
RNN模型在长上下文中表现不佳?近日,来自清华的研究团队对此进行了深入的实验分析,结果表明:不是RNN的锅。
Meta最近开源了多个AI项目,包括图像分割模型SAM 2.1、多模态语言模型Spirit LM、自学评估器和改进的跨语言句子编码器Mexma等,提升了AI在图像处理和语音识别领域的能力,进一步推动了AI研究的进展。
近日,面对EDA界对于自家AlphaChip的质疑,谷歌首席科学家Jeff Dean以论文回应论文,并表示:大家注意,这是同行竞争!
一个有效的复杂系统总是从一个有效的简单系统演化而来的。——John Gall
之前出了一些 Dify 的 基础教程,后台有小伙伴经常问三金:Dify 和 fastGPT 哪个好啊?我该用哪个呢? 为了帮小伙伴解开这个疑惑,今儿三金就先带大家分别看下这两个产品 在知识库上的异同点 。废话不多说,开整!
在当今多模态领域,CLIP 模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。CLIP 通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间中,受到了广泛应用。
代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。 北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。