AI焦虑时代,如何找回人生掌握权?

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AI焦虑时代,如何找回人生掌握权?
7950点击    2025-07-09 10:05

当ChatGPT横空出世时,它以空前的方式将AI 议题推至公众视野的核心。然而,同时迸发的诸多讨论却固着于恐惧、忧虑与批判情绪。主流质疑声始终围绕如何限制、遏制乃至禁止AI技术的发展。


里德·霍夫曼与合著者格雷格·贝亚托在《AI赋能》一书中则聚焦AI为何为个体、组织与国家带来潜在机遇,并强调尽管政府监管只是AI安全的一环。要实现 AI在全社会的成功整合,个体用户的信任不可或缺,而培养这种信任的最佳方式,便是让用户在实践中亲身体验。


当信任基础与普及程度形成良性循环时,便会产生强大的协同效应。这便是“超级能动性”,当数百万人同步采用突破性技术时引发的质变级效应――每个个体不仅能从自身获得的新能力中获益,更能享受全体用户共同创造的溢出价值。


这种全新范式的冲击已波及多个领域:软件开发者无论技术层级如何,均借力AI以超越以往效率的节奏完成编程、调试与代码优化;医疗从业者通过AI实现病症初筛、医学影像分析与个性化治疗方案制定;教育工作者借助AI打造能自适应学生个性需求与学习风格的定制化教学体验;创意领域从业者――作家、设计师、音乐家,正在将AI转变为创作过程中不可或缺的智能伙伴。


AI焦虑时代,如何找回人生掌握权?

本文作者

Reid Hoffman


知名互联网企业家,领英联合创始人,微软董事会成员知名风险投资人,OpenAI早期投资人,也曾投资过Facebook、爱彼迎等知名公司。Al领域的科技思想家,对AI的颠覆性潜力有清晰的预见,倡导以更加人性化和可持续的方式应用AI技术。


AI焦虑时代,如何找回人生掌握权?


本文作者Greg Beato


知名媒体撰稿人科技及文化类文章创作者,知名媒体撰稿人。他的作品曾发表于《 纽约时报》《连线》《华盛顿邮报》等。


“起点”将至,大模型崛起将引发巨变


整个2023年,得益于大语言模型,AI成为科技领域最大的热点。当然,并非每个人都关注AI的潜在好处,尤其是在美国,人们对这项技术始终表现出极大的担忧。


全球性市场调研公司益普索(Ipsos)2022年所做的一项调查显示,“只有35%的美国受访者(这一比例在所有参与民调的国家中最低)认为使用AI的产品和服务利大于弊”。皮尤研究中心的一项类似调查发现,只有15%的美国成年人表示他们“对日常生活中AI的使用日益增加感到兴奋多于担忧”。在来自蒙茅斯大学(Monmouth University)的另一项研究中,56%的人认为“AI机器会损害人类的整体生活质量”。


这样的担忧完全可以理解。我们正处于一个发生巨变的时刻,世界充满了巨大的不确定性。这些系统究竟会变得多么强大,速度有多快?随着AI的不断进步,人类还有哪些工作可以继续做?当AI技术使大规模生成逼真的现实模拟变得更廉价、更便捷时,原本已经受到冲击的信任系统和公共话语会受到怎样的影响?在一个高度仪器化的世界里,数十亿的系统、设备和机器人能够匹敌或超过人类的表现,并且能够采取行动介入人们的选择和意愿,这时个人隐私和自主权将何去何从?我们还能继续规划自己的生活,并成功掌控自己的命运吗?


大多数人对AI的担忧,

其实是对人类能动性的担忧


归根结底,工作岗位被取代的问题其实就是个体能动性的问题:我是否有经济能力来养活自己?是否有机会从事我认为有意义的工作?虚假信息和误导性信息的问题也是个体能动性的问题:在我准备做出影响自己生活的决策时,我如何知道该信任谁、信任什么?隐私的问题同样是个体能动性的问题:我如何维护自身身份的完整性,同时如何被这个世界认识,来为真实的自我服务?


人的能动性是哲学、社会学和心理学中的一个基本概念。它的主要含义是,作为个体,你有能力做出选择、独立行动,从而影响自己的生活。虽然你可能也认为外部环境和条件会对你正在经历的事的结果产生重大影响,但正是你的能动性意识促使你萌生想法、设定目标,并采取行动来实现这些目标。因而,能动性意识能够为你的生活赋予目的与意义。


随着AI系统的发展,它们在自主学习、解决问题和执行复杂任务方面的能力正在不断提升,不再需要人类的持续监督。自动驾驶汽车虽然不会像人类那样意识到自己的能动性,但它确实具备在操作过程中自主决策、采取行动和追求目标的能力。


这意味着,随着时间的推移,越来越多的系统、设备和机器将逐渐侵入传统上由人类能动性主导的领域,而人类可能会对这种入侵感到不满。退一步讲,即便在某些方面我们乐于依赖机器从而减轻自身负担,也会出现其他问题。比如,如果对机器过度依赖,我们自身的技能和能动性随着时间的推移而逐渐退化怎么办?如果那些理应代表我们工作并取得我们认可的成果的系统,最终以未经我们明确同意的方式影响我们的决策和行为怎么办?


事实上,这就是迄今为止人类的故事。作为“技术人”,我们的与众不同之处在于我们有能力并致力于通过制造工具来创造新的生存方式。这使我们有别于地球上的其他生物,包括原始的工具制造者。虽然一代又一代的黑猩猩也会使用石器砸开坚果,但人类不断在创造新技术,并利用这些技术,以新颖且愈加富有成效的方式发挥我们的能动性。从石器到智能手机,这种在创新方面的良性循环跨越时间的维度,扩展和丰富了人类存在的意义。


现在我们有机会开发新的超级工具。这些工具可以极大地提升人的能动性,让我们进入一个类似工业革命的变革时代。这一论断影响深远,可以这样解读:人类的智慧和自然的能源协同作用,激发人类的能动性,进而推动人类进步。人类的智慧使我们有能力权衡选择,设想并规划不同选择会面临的潜在情境;自然的能源则能帮我们将自己的愿望付诸实践。无论对于个体还是集体,我们能够利用的智慧和能源越多,我们实现目标的能力就越强。


语言的发明、对火的控制和使用、轮子的发明和文字的出现,都是我们的祖先用来增强人类智慧和放大自然能源能量的关键技术。随着我们不断创新,这个过程仍在继续。在20世纪初,由内燃机驱动的汽车——一种变革性的能源利用方式,使数百万人能够将几十年前还被视为超人的壮举变为日常。最近几十年,个人计算机、互联网和智能手机在增强和放大人类智慧方面同样具有变革性。


AI将推动我们实现下一次巨大飞跃。与书籍或视频网站上的教学视频这样的创新不同,AI不仅仅是一种制造和传播知识的工具,尽管这已经很有价值了。AI本身可以发挥能动性,有自行设定目标并采取行动来实现目标的能力,因此你可以通过两种不同的方式利用AI。在某些情况下,你可能希望与AI密切合作,例如当你学习一门新语言或练习正念技能时。在某些情况下,比如根据实时能源价格新闻和天气预报优化家庭能源消耗,你可能更愿意让AI自行处理。


无论哪种方式,AI都在增强你的能动性,因为它在帮助你采取旨在实现你期望结果的行动。而且无论哪种方式,都有新的变革正在发生。有史以来第一次,合成智能(不仅仅是知识)变得像自18世纪蒸汽动力兴起以来的合成能源一样可灵活部署。现在,智慧本身也成了一种工具,一种可扩展、高度可配置、可自我增强的进步引擎。


对此,我们如果能正确地加以利用,将达到一种全新的超级能动性状态。当大量个体被AI赋能,并开始通过社会层面不断增值时,就会达到这种状态。换句话说,不仅仅是部分人因为AI而变得更有见识和能力,所有人都将如此,包括那些很少或从不直接使用AI的人。因为突然间,你的医生可以借助AI精确诊断你那些无法准确描述且看似无碍的症状;你的汽车修理工能够准确辨识当你在炎热天气下从红绿灯处加速时,汽车后备厢发出的奇怪声响意味着什么。甚至自动取款机、停车计时器和自动售货机都变成了多语言天才,能立即理解你的需求并适应你的偏好。


这就是超级能动性的世界。


全速前进,合成智能

将让我们再次实现指数级飞跃


在工业时代之前,整个社会的生产力受到极大限制,因为能源是一种稀缺资源。耕种田地、挖掘隧道、操作滑轮,所有工作都需要大量的人力或畜力,从而限制了工作的规模、效率,以及更广泛的社会发展和人类繁荣,因为人和马实际上都充当着苦力的角色。在自然条件允许的情况下,风车和水力磨坊使一些地区的谷物和纺织品生产更加高效。你如果出生在河流附近,生活可能会稍微富裕一些,可能有更多的自我表达机会。否则,你或许只能在犁地中找到一些乐趣。


然而,在18世纪中叶,随着蒸汽动力的兴起,情况开始发生变化。


回顾历史时,我们往往会通过工业革命带来的最糟糕的产物来看待它:城市因获取蒸汽动力需要燃烧煤炭而蒙上黑烟;工人在苛刻的工厂里从事危险的工作,几乎没有任何权利;童工现象盛行;生活条件变得更加艰苦,人们缺少社交;贫民窟的拥挤与都市的孤独并存……


你甚至可以说这是一个极度“非人性化”的时代。工厂时钟和街灯取代了自然的节奏。人们常常被期望工作时“比机器还机器”。在日益商业化的世界里,人们之间的关系更多基于利益交易,因而削减了彼此互惠和互信的机会。全球范围内的经济发展不均衡,人们对自然资源的新需求强化了已经具有剥削性的殖民关系,并造成了全新的不平等。


但这些并非蒸汽动力和工业革命的全部真相。总体而言,几个世纪以来,合成能源和工业化一直是极具人性化的力量。蒸汽动力机械化创造了前所未有的生产规模化的机会。想达到生产规模化需要生产各环节更进一步的合作与协作。一旦实现,生产的规模化又会促进生产的丰富性和多样性。


技术驱动越强大的社会,就越需要具备更高教育程度的民众。更多拥有多种技能和专业知识的人带来了更多创新,而这些创新进一步激发了社会发展新的可能性和机遇。食品等各类商品和信息生产效率的提升最终促进了社会发展和进步:更公平的法律、更频繁的经济文化交流、日益完善的社会福利系统,以及日益受重视的个人权利和自由。曾几何时,几乎所有的人力资源都集中投在种植粮食和屠宰牲畜上。蒸汽机通过用合成人力增强实际人力,以指数级的方式极大地扩展了人类的可能性。它为人们走向更丰富、更多样、更有尊严且人性化的生活开辟了一条道路。


现在,这些都可以通过AI再次实现。我们的社会发展程度可以实现指数级的飞跃,合成智能在21世纪及以后产生的影响将如同合成能源在18世纪产生的影响那样深远。正如工业革命为人们创造了新的合作机会,并激发了人们在创新、创造和生产力等方面的新潜能,AI带来的认知革命也将带来同样的变化。随着这种转变的发生,教育和技能发展将变得更为关键,二者将造就一个更有知识和能力的民众群体。最终,合成智能可以像合成能源一样扩展人类的潜力,激发人类的能动性。这是一条让人类走向更充实、更人性化生活的道路。


服务、合作于人的AI,

而非凌驾于人的AI


那么,实现创造以个体能动性为核心同时更为智能化的社会的美好愿景的最佳方式是什么?当OpenAI在2015年成立时,并没有具体的产品或服务,更不用说商业模式或市场推广策略了。相反,正如OpenAI的两位联合创始人格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克维(Ilya Sutskever)在公司成立时发表的一篇文章中所述,OpenAI的广泛使命是“以最有可能造福全人类的方式推进数字智能”。


为了实现这个雄心勃勃但相当抽象的目标,布罗克曼和苏茨克维建议,OpenAI将遵循一项具有变革性的指导原则:“我们认为,AI应该是人类个体意志的延伸,并且在自由精神下,尽可能广泛和公平地分布。


为什么这个观点如此关键?即使在2015年,一些AI的迭代技术实际上也已经广泛分布。大多数互联网用户已经在使用AI,例如推荐系统、新闻推送筛选、预测文本和自动填充等应用。而在有些场景中,AI的应用常常引发争议。2016年,美国新闻调查网站ProPublica报道了一种在美国刑事司法系统中被广泛使用的算法,该算法“特别容易将非裔被告标记为未来的罪犯,其错误标记率几乎是白人被告的两倍”。


同年,一个由17个民权组织组成的联盟发表声明,谴责预测性警务工具,这些工具使用算法和历史犯罪报告数据来预测犯罪可能发生的地点和时间。2019年,旧金山成为首个禁止市内警察局和其他机构使用人脸识别系统的城市。


所有这些使用案例都有一个共同点:在这些情境下受到AI影响的人并没有明确选择使用它。


其实类似推荐服务和新闻筛选等正被使用的AI功能,你通常也并没有明确表示要使用它们。相反,你只是在遵循AI的开发者为你设定的路径。比如,亚马逊的算法告诉我,因为我刚买了那件商品,所以我可能对这件商品感兴趣。或许我就会去看看这件商品。


2020年初,OpenAI以ChatGPT的前身GPT-2为基础发布的新AI模型,则截然不同。它们既没有嵌入其他系统,也不会在用户不知情的情况下被激活。用户必须主动选择它们,才能使用。一旦用户选择使用,就可以以开放、自主的方式利用它们。


随着2022年11月ChatGPT的发布,这种方法变得更加多功能且实用。当然,你可以让它为你写一篇文章,也可以让它评论你写的文章;你可以让它针对即将要面试你的公司设计模拟面试问题;你可以让它推荐一套既具挑战性又安静的健身计划,以便你在公寓里锻炼时不吵醒你的室友。


终于有了一个高度可访问、易于使用的AI工具,它明确与你合作并为你服务,而不是凌驾于你之上。这标志着AI发展和人类赋能有了关键转变,这一转变至关重要,因为它将个体用户置于体验的核心。同样重要的是,它为用户提供了自行探索和体验的机会。OpenAI没有私自开发这项新技术,而是等到一小群专家认为它的性能足够有效且完全安全,才邀请公众一同参与开发过程。OpenAI将这种方法称为“迭代部署”。


迭代部署有着坚实的技术、科学的监管和严谨的社会学理论基础。在技术方面,它遵循经典的硅谷风格,依赖用户体验和明确的用户反馈来指导后续的开发工作。它关注监管需求,逐步变革,以便控制潜在负面影响带来的冲击。同时,在社会学角度,它给予个人和社会足够的时间去适应它的这些变化。


本质上,迭代部署是基于这样的认识,“罗马不是一天建成的,罗马人也不是一天养成的”。人们理解一个新世界的规则及其如何运作是需要时间的。信任始于接触,并随着人们对新事物的使用而发展。一旦你了解某物的本质及其功能后,你就会开始信任它。信任的基础是长期的一致性。


在AI的背景下,我们首先必须对技术本身建立信任,技术并不会常出现不可预测的错误。然而,如果我们能够使用这些工具,我们就可以自己形成判断:它是否足够可靠,能被用来做我想做的事情?


它提供的是真正的价值还是区区新奇感?它会赋予我能力还是让我过度依赖?


对技术的信任仅仅是个开始。我们还必须建立对技术开发者和技术监管者的信任,或许最重要的是,建立对其他技术使用者的信任。毕竟,你为什么要相信其他人大都会以积极的方式使用AI呢?你为什么要相信国家政府也会这样做呢?你为什么要相信AI开发者能胜任这个工作且负责地开展工作呢?


这些问题并不容易回答。问题的答案只能在长时间不断争论的过程中慢慢显现,这与人类每次创造变革性技术时的情形如出一辙。这样的争论已经持续了多年,但主要是在计算机科学家、高校研究人员、商业开发者、投资者、伦理学家、科技记者、政策制定者、法律专家和科幻作家之间进行的。迄今为止,至少有4个主要群体在影响着这场讨论:末日论者、悲观论者、乐观论者和繁荣论者。


虽然这些标签看起来宽泛笼统,但我们并非试图降低其背后观点的复杂性。相反,我们仅旨在总结围绕AI产生的辩论的基本立场。所有这些群体都贡献了独特且宝贵的见解,挑战了假设,并拓展了我们的集体认知边界。


末日论者。末日论者认为我们正走向一个糟糕的未来,最坏的情况是,超级智能、完全自主的AI可能不再与人类价值观保持一致,甚至可能决定彻底毁灭人类――或许会留下一小撮技术人员作为替扫地机器人复仇的工具,让他们留下来打扫卫生。


悲观论者。悲观论者既对AI持强烈的批评态度,也对末日论者严厉指责。在他们看来,末日论的观点具有双重目的。首先,它默认AI“如此强大,可能会毁灭我们”。其次,其长期和抽象的视角把人们的注意力误导向未来,而人们真正应该优先关注的是更近期的关于AI风险和危害的问题,如失业风险的增加、虚假信息的泛滥、现有系统性偏见的放大以及个体能动性被削弱。总体而言,悲观论者支持运用具有限制性的、自上而下的管理方式,认为AI的开发和部署应该由官方监管,发布和运行应由监督机构严格监测和控制。


乐观论者。乐观论者认为AI带来的革新和生产力的提升等积极影响将远远超过其产生的任何负面影响。总而言之,他们对那种试图在AI被实际投入使用前通过预防性监管来杜绝其风险或危害的做法持怀疑态度。与悲观论者的观点相反,他们主张给予开发者足够的空间,按其认为合适的方式来构建AI,并利用AI在最短时间内产生最佳的结果。他们不想要政府的监管,也不想要政府的支持。他们想要一条畅通无阻的跑道和完全的自主创新权。


繁荣论者。繁荣论者和乐观论者一样,他们的观点从根本上是乐观的。他们相信AI可以在无数领域加速人类进步。同时,他们也认识到,像AI这样具有变革性和多样性的技术不能也不应该单边开发和部署。因为AI将以多种方式影响太多人的生活,因此,繁荣论者倡导在现实条件允许的情况下用户能广泛参与AI的开发和部署,这正是迭代部署的意义。尽管他们并不完全反对政府监管,但他们认为开发更安全、更公平、更有用的AI工具的最快且最有效的方法是让具有不同价值观、不同意图的多样化用户群体来使用这些技术。


与许多悲观论者将AI视为本质上是带有掠夺性的产业的看法不同,繁荣论者认为它更类似于农业。你播下一颗种子,看着它生长并适应周围的环境。你了解哪些作物在哪些地方最适宜生长,继而根据所发现的问题和将面临的挑战,制定可能缓解这些问题的解决方案来对其生长进行干预。这是一个有风险的过程。然而,随着时间的推移,你的知识会增加,你的技术会提升,你的产量会增长。


我把自己归入繁荣论者阵营。从我创立领英,到在过去25年中投资数百家互联网初创公司,我的职业生涯建立在与用户线上进行相互反馈的良性循环的原则之上,且我基于真实世界中用户的实际使用情况不断学习和改进。


“参与”这个行为既需要个体能动性,也会对个人发挥能动性后产生的结果予以回馈,正是这种对自我驱动式的广泛参与的强调,让我更倾向于繁荣论者的观点。相比之下,末日论者和悲观论者都认为他们是在通过禁止或限制AI的方式,保护人类能动性,然而这剥夺了我们自己评估AI的能力。对于乐观论者来说则恰恰相反:他们想要在绝对自由的环境中构建AI,通常他们会假设以此构建AI带来的最终影响是增强人类的能动性。但这种观点往往忽视了社会的高速发展会让公众在此过程中感到被边缘化。


通过让人们以亲身实践的方式使用AI工具,OpenAI迅速拓宽了关于AI未来可能性的讨论范围,并使这个话题更具包容性。这种方法也让每个人能获得更多信息来评估这些工具带来的机遇和挑战。


尽管过去几年AI相关的技术突破令人兴奋,但AI的普及化同样令人兴奋,甚至可以说更为重要。如果我们确实正处于一场可与蒸汽动力的出现相媲美的变革之中,那么我们现在所做的决策不仅会影响接下来的几年,还会塑造未来几十年,甚至几个世纪。在被网络和数字赋权的时代,任何人都不应在创造与自己息息相关的未来的过程中沦为无足轻重的角色。要想以民主、负责任、合乎伦理且高效的方式开发AI,我们必须吸纳不同公众的广泛参与,并持续收集公众的反馈。人类已经加入这场与AI的对话,而这正是这部分“剧情”发展中极为重要的一环。


在“剧情”发展中还有一个全球化的战略性要素,它与个体能动性息息相关。因为最终带来积极影响的AI的存在不仅仅取决于哪些公司甚至哪些国家最先开发出来,也将取决于哪些个人、公司和国家能更有效地利用AI。换句话说,关键问题是信任。


随着开发者推出更强大的模型,那些可以在最少人力监督或干预下以更强的自主性运行的模型,所引发的文化冲突将会进一步加剧。人们对AI预先进行监管甚至禁止的意愿将变得更加强烈。这些都将在全球范围内发生。一个国家做出的任何监管决定都会产生全球性的广泛影响,而非仅在部分区域生效。这是一场真正的多方博弈。


延展的心智

鉴于此,关于AI的监管往往与法规制定共同出现在讨论中。乐观论者要求创新自由;悲观论者主张暂停、禁止AI的开发和建立自上而下的许可机制;繁荣论者则认为创新自由和监管义务都很重要,我们必须在两者之间找到适当的平衡。在某种程度上,这意味着要认识到人们对AI的看法有广泛的分歧,我们的首要目标应该是寻求共识和建立信任。这种共识和信任最有可能通过接触和使用AI而逐渐形成。换句话说,仅仅制定关于AI的规则是不够的,信念、规范和共同价值观也同样重要。


正如我们将在后续章节中探讨的,AI是一种可以极大赋能个人用户,同时也能够在非常广泛的社会层面发挥作用的技术。从这一点来看,它类似于互联网、道路和高速公路、电网、供水系统在社会层面带来的广泛影响。出于不同原因,在不同程度上,确实有人在不用它们的情况下仍能正常生活。但试想一下这些情形:有30%的人对电线有深深的疑虑,或者20%的人坚决拒绝在生活中使用交通信号灯,或者有极小比例的人(或许不超过几千甚至几百人)极度厌恶水库,甚至试图去摧毁它们。


上述行为可能都不会改变公共事业和基础设施让我们在21世纪过上便捷高效的生活的事实。但它确实可能对一个国家运转的顺畅程度和生产效率产生影响,无论是在国内还是全球范围内。这就是为什么以让公众在这个过程中发挥真正作用的方式来开发AI至关重要,就像过去人们在开发汽车和互联网时所做的那样。显然,达成完全统一的共识既不现实,也非必要。但鉴于事关重大,以给人们带来最大成功机会的方式推进AI的发展,仍然是有意义的。


在很大程度上,这是因为在数字网络时代政府治理的一个悖论特征是,民主化程度最高的社会,往往也是最难推动变革的社会,喧嚣嘈杂凌驾于共同体与共识之上。这正是民主国家目前要面临的特殊挑战。


想想所有削弱个体能动性的各种手段。我们已经知道,AI也可能被设计成针对人类,而不是为人类服务或与人类合作的工具。此外,从国家繁荣和国家安全的角度来看,贸易保护主义让一些国家无法在经济上与拥有数百万高智能机器人“工人”、更多能够充当科学家和工程师的AI系统的国家竞争。孤立主义不会保护我们免受那些科学家和工程师可能设计出的新奇自主化武器的威胁。


这一切意味着,在21世纪,个体能动性与国家能动性比以往任何时候都更加紧密地联系在一起。为了确保AI未来能作为“个人意志的延伸”发挥作用,AI技术先进的国家必须引领这一进程。这意味着我们要有志向远大的创新思维、致力于实验和适应的态度,并通过广泛的公众参与在AI的发展过程中建立共识。


AI焦虑时代,如何找回人生掌握权?

《AI赋能》作者:[美] 里德·霍夫曼(Reid Hoffman)[美]格雷格·贝亚托(Greg Beato)湛庐文化/浙江教育出版社 点击上图购买。


文章来自公众号“追问nextquestion”

关键词: AI , AI杂谈 , 人工智能 , 大模型
AITNT-国内领先的一站式人工智能新闻资讯网站