AI资讯新闻榜单内容搜索-LLama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLama
大模型架构创新已死?

大模型架构创新已死?

大模型架构创新已死?

一场围绕大模型自研和创新的讨论,这两天在技术圈里炸了锅。起初,前阿里技术VP贾扬清,盆友圈爆料吐槽:有大厂新模型就是LLaMA架构,但为了表示不同,通过改变开源代码名字、替换几个变量名……

来自主题: AI资讯
3792 点击    2023-11-15 16:28
老黄深夜炸场,世界最强AI芯片H200震撼发布!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭

老黄深夜炸场,世界最强AI芯片H200震撼发布!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭

老黄深夜炸场,世界最强AI芯片H200震撼发布!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭

刚刚,英伟达发布了目前世界最强的AI芯片H200,性能较H100提升了60%到90%,还能和H100兼容。算力荒下,大科技公司们又要开始疯狂囤货了。

来自主题: AI资讯
8325 点击    2023-11-14 09:23
让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)

让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)

让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)

最近微软一项研究让Llama 2选择性失忆了,把哈利波特忘得一干二净。 现在问模型“哈利波特是谁?”,它的回答是这样婶儿的:

来自主题: AI技术研报
3865 点击    2023-11-11 10:28
物理所联合院网络中心发布AI模型MatChat,预测无机材料合成路径

物理所联合院网络中心发布AI模型MatChat,预测无机材料合成路径

物理所联合院网络中心发布AI模型MatChat,预测无机材料合成路径

中国科学院物理研究所/北京凝聚态物理国家研究中心SF10组和中国科学院计算机网络信息中心共同合作,将AI大模型应用于材料科学领域,将数万个化学合成路径数据投喂给大语言模型LLAMA2-7b,从而获得了MatChat模型

来自主题: AI技术研报
4940 点击    2023-11-04 10:43
Sam Altman剑桥演讲遭抵制,MIT学者惊曝Llama 2开源能造毁灭人类病毒!AI大佬激烈对线战火持续

Sam Altman剑桥演讲遭抵制,MIT学者惊曝Llama 2开源能造毁灭人类病毒!AI大佬激烈对线战火持续

Sam Altman剑桥演讲遭抵制,MIT学者惊曝Llama 2开源能造毁灭人类病毒!AI大佬激烈对线战火持续

「AI灭绝人类」的全球讨论继续升级,Sam Altman在剑桥活动现场被抗议者当面抵制!而LeCun、吴恩达的「开源派」和Bengio、马库斯的 「毁灭派」,也纷纷甩出言辞恳切的联名信,继续征集签名中。

来自主题: AI资讯
8353 点击    2023-11-02 14:43
AI翻译文言文、给古彝文编码,华南理工这一科研团队助力古文保护与传承

AI翻译文言文、给古彝文编码,华南理工这一科研团队助力古文保护与传承

AI翻译文言文、给古彝文编码,华南理工这一科研团队助力古文保护与传承

近日,“机器翻译峰会MTS2023”在中国澳门圆满落幕。在会上举办的第一届古汉语机器翻译竞赛(EvaHan2023)中,华南理工大学电子与信息学院的金连文教授团队提出基于大语言模型(LLM)的方案在比赛中较大优势获得冠军。

来自主题: AI资讯
1645 点击    2023-10-29 10:11
科学家通过“越狱”大模型的安全系统,来让AI更安全

科学家通过“越狱”大模型的安全系统,来让AI更安全

科学家通过“越狱”大模型的安全系统,来让AI更安全

伦敦皇家协会举办了一场由40名科学家参与的攻克AI模型安全系统的活动,目的是发现漏洞让世人知道目前AI的技术风险

来自主题: AI资讯
1656 点击    2023-10-29 10:01
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源

人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源

人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源

继CodeLlama开源之后,北大等机构正式开源了性能更强的代码基座大模型CodeShell-7B和代码助手CodeShell-Chat。不仅如此,团队还把方便易用的IDE插件也开源了!

来自主题: AI资讯
5922 点击    2023-10-19 15:25
PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍

这两天,FlashAttention团队推出了新作: 一种给Transformer架构大模型推理加速的新方法,最高可提速8倍。 该方法尤其造福于长上下文LLM,在64k长度的CodeLlama-34B上通过了验证

来自主题: AI技术研报
3193 点击    2023-10-18 14:43