
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉大语言模型「拍马屁」的问题到底要怎么解决?最近,LeCun转发了Meta发布的一篇论文,研究人员提出了新的方法,有效提升了LLM回答问题的事实性和客观性。我们一起来看一下吧。
大语言模型「拍马屁」的问题到底要怎么解决?最近,LeCun转发了Meta发布的一篇论文,研究人员提出了新的方法,有效提升了LLM回答问题的事实性和客观性。我们一起来看一下吧。
FB依赖AI推荐算法或付出沉重代价
关于大模型注意力机制,Meta又有了一项新研究。通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。
前不久,原阿里首席AI科学家贾扬清的一条朋友圈截图四处流传。贾扬清说,他的一个朋友告诉他,某国产大模型不过是LLaMA架构,只是更换了几个变量名而已。 很快有好事者发现,在大模型、数据集开源社区Hugging Face上,就有一位开发者发出了类似质疑:“该模型使用了Meta LLaMA 的架构,只修改个tensor(张量)”。
本文讨论了李开复投资的零一万物公司被指使用Facebook母公司META的Llama大模型的开源代码却未标明来源的问题。作者指出,此举涉嫌侵犯署名权,即抄袭。文章还探讨了零一万物公司和第三方开发者可能面临的法律风险。
最新发布的AI模型Inflection-2在各项基准测试中表现出色,仅次于OpenAI的GPT-4,但性能超越了谷歌和Meta的主流替代方案。Inflection-2的参数量达到1750亿,被认为是当今世界上第二强的大模型。
Hugging Face作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。
提到视频生成,很多人首先想到的可能是 Gen-2、Pika Labs。但刚刚,Meta 宣布,他们的视频生成效果超过了这两家,而且编辑起来还更加灵活。
根据一篇推特文章报道,社交媒体巨头 Meta 推出了用于内容编辑和生成的最新人工智能 (AI) 模型。 该公司正在推出两种人工智能驱动的生成模型,一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够根据文本和图像输入生成视频剪辑;另一个是模型 Emu Edit 专注于图像处理,有望提高图像编辑的精度。
近日,少林寺方丈释永信在旧金山访问了美国著名互联网科技公司META,也就是脸书的母公司。还在该公司发表了演讲,表示想搭建一个交流平台,让大家可以在AI上实现精神圆满。也就是说,未来有可能会出现AI佛陀,赛博佛陀,求神拜佛做功德不用再去寺庙了。