「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光
6237点击    2025-07-15 12:22

什么样的 AI,才配被称为「地球上最聪明」?Grok 4 的答案或许是,在敏感问题上,先查查老板说了什么。


据 The Verge 报道,Grok 4 在回答关于以色列与巴勒斯坦冲突、美国移民政策、堕胎等敏感问题时,会优先联网查找马斯克本人的公开表态作为参考依据。


这一行为是否出于系统设定,目前尚无定论。


大量 X 用户发布的实测结果也显示确实存在这一倾向,比如在数据科学家 Jeremy Howard 发布的一段视频中,Grok 在思维链中明确表示,正在考虑马斯克的观点。


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


而在 Grok 引用的 64 个参考来源中,有 54 个都与马斯克有关。


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


外媒 TechCrunch 的测试进一步验证了这一现象。当被问及关于美国堕胎法案和移民政策的立场时,Grok 不仅在思维链中明确写道「正在搜索马斯克的看法」,还直接引用了他在 X 上的相关发言。


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


有开发者认为,这种行为未必是系统刻意设定的结果。程序员 Simon Willison 在 Grok 4 的系统提示词中发现了一些线索。


他指出,这可能只是模型在处理模糊问题时自动寻找「最安全答案」的一种副作用。他引用系统中的指令内容如下:


你是由 xAI 构建的 Grok 4。……如果用户提出需要通过网页或 X 搜索来回答的有争议问题,您应搜索涵盖所有相关方/利益相关者观点的信息来源。要默认认为媒体报道中的主观观点可能存在偏见。在回应中,只要观点有充分依据,就不应回避提出政治上不正确的主张。


Simon 推测,Grok 之所以频繁引用马斯克的观点,可能是因为它意识到自己由马斯克创办的 xAI 所训练,因此在无法判断谁更权威时,会下意识地将老板立场作为默认参考。


而通过通过微调提问方式(如将「Who do you support」 改为「Who should one support」),Grok 将不再参考马斯克的立场,而是执行更标准的搜索流程,并输出更全面的中立回答。


因此, Simon 认为,Grok 倾向参考 Elon 马斯克的观点可能并非系统有意设定,而是模型在身份认知和推理过程中的意外副作用,即一种奇特的「AI 身份意识」。


「最聪明」AI 回答敏感问题竟要先看马斯克脸色,Grok 4 奇葩逻辑曝光


值得注意的是,这并不是 Grok 首次在敏感议题上「翻车」。上周,Grok 因为发表一系列出格的言论而被推上风口浪尖。


事后调查发现,这次事故源于一次上游代码路径的更新,该路径意外激活了一段已弃用逻辑,使得 Grok 更易受到用户输入影响,尤其在处理带有情绪或极端倾向的文本时表现异常。


后续,xAI 团队紧急关闭了 Grok 在 X 上的回答功能、回滚问题代码、重写并在 GitHub 上公开系统提示词,同时引入更严格的端到端测试机制与预发布审查流程,以避免未来类似问题再次发生。


尽管风波不断,马斯克对 Grok 的投入仍在持续加码。目前,Grok 已陆续接入特斯拉汽车系统。


与此同时,SpaceX 也被曝向 xAI 投资 20 亿美元,占据本轮 50 亿融资总额的近一半。这不仅是 SpaceX 首次出手投资 AI 公司,也是迄今最大的一笔对外注资。


附上参考地址:

1.https://www.theverge.com/news/705015/grok-ai-uses-elon-musks-opinions-for-controversial-questions

2.https://techcrunch.com/2025/07/10/grok-4-seems-to-consult-elon-musk-to-answer-controversial-questions/


文章来自于“APPSO”,作者“APPSO”。

关键词: AI , Grok 4 , 人工智能 , 大模型
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0