AI资讯新闻榜单内容搜索-大型语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大型语言模型
Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。

来自主题: AI技术研报
6119 点击    2024-01-29 12:36
Dify 发布 AI Agent 能力:基于不同的大型语言模型构建 GPTs 和 Assistants

Dify 发布 AI Agent 能力:基于不同的大型语言模型构建 GPTs 和 Assistants

Dify 发布 AI Agent 能力:基于不同的大型语言模型构建 GPTs 和 Assistants

距离上次推出的 v0.4.0 大版本的三周后,我们又再次迎来了重大的更新 — v0.5.0!在这个最新版本中,我们隆重推出了 AI Agent 能力。

来自主题: AI资讯
9850 点击    2024-01-25 11:07
瑞士信息与通信科技公司Lakera为生成式AI开发安全解决方案,保护AI应用程序安全 | 瑞士创新100强

瑞士信息与通信科技公司Lakera为生成式AI开发安全解决方案,保护AI应用程序安全 | 瑞士创新100强

瑞士信息与通信科技公司Lakera为生成式AI开发安全解决方案,保护AI应用程序安全 | 瑞士创新100强

瑞士信息与通信科技公司Lakera成立于2021年,该公司为生成式AI应用程序开发的安全工具拥有专有的威胁情报数据库,可防御对大型语言模型(LLM)的各类攻击并对AI应用程序进行压力测试检测漏洞,为AI应用程序提供企业级的安全保护。

来自主题: AI资讯
6282 点击    2024-01-22 10:53
普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

自 ChatGPT 等大型语言模型推出以来,为了提升模型效果,各种指令微调方法陆续被提出。本文中,普林斯顿博士生、陈丹琦学生高天宇汇总了指令微调领域的进展,包括数据、算法和评估等。

来自主题: AI技术研报
6363 点击    2024-01-21 14:14
多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

在大型语言模型(LLM)的世界中,处理多轮对话一直是一个挑战。前不久麻省理工 Guangxuan Xiao 等人推出的 StreamingLLM,能够在不牺牲推理速度和生成效果的前提下,可实现多轮对话总共 400 万个 token 的流式输入,22.2 倍的推理速度提升。

来自主题: AI技术研报
6188 点击    2024-01-08 14:02
大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉

大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉

大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉

大型语言模型(LLM)虽然在诸多下游任务上展现出卓越的能力,但其实际应用还存在一些问题。其中,LLM 的「幻觉(hallucination)」问题是一个重要缺陷。

来自主题: AI资讯
7707 点击    2024-01-02 15:31
技术真的可以“价值对齐”吗?

技术真的可以“价值对齐”吗?

技术真的可以“价值对齐”吗?

2023年,以ChatGPT为代表的大型语言模型(LLM)集中爆发,让各界都看到人工智能全新的可能性。但期冀总是与担忧并存,随着大模型在各领域的应用深化,已经沉寂许久的“AI威胁论”又开始甚嚣尘上。在漫长的技术史中,技术恐惧如同摆脱不了的阴影,总是与技术发展随行。

来自主题: AI资讯
7912 点击    2023-12-19 11:19
在这些未解难题上,AI已经胜过人类数学家

在这些未解难题上,AI已经胜过人类数学家

在这些未解难题上,AI已经胜过人类数学家

DeepMind的研究团队开发了一款基于大型语言模型的人工智能系统,名为FunSearch,可以在数学和计算机科学中生成新的解。通过迭代中的进化,FunSearch能够解决复杂的数学问题,并发现新的数学知识和算法。这种基于大型语言模型的人工智能系统不仅能超越人类数学家,而且比现有的方法更有效。

来自主题: AI资讯
4830 点击    2023-12-16 10:35
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。

来自主题: AI资讯
7037 点击    2023-12-13 15:35