文章探讨了消费级人工智能(如ChatGPT)模糊了工具与人类自我之间的界限,分析了其作为认知延伸的可能性,讨论了其对人类能力的影响,并探讨了这种技术进步带来的伦理和社会问题,包括认知能力的增强与潜在的退化、公平性以及人机共生的未来。
巴西提臀术(“BBL”)已经成为一种主流痴迷。以完美的算法和令人上瘾的洗脑方式,我正在观看一个 TikTok,其中创作者提到 BBL 是一种超人类主义。 创作者认为,每个人都有一个感知到的自我,他们通过身体手段来体现,通过加成,人们可以达到他们想要的“化身”。
这位创作者的随口评论表明,人们在日常生活中多么容易接受技术驱动的自我改造。这种文化轶事暗示了一种更广泛的现象:一种新兴的“非处方”超人类主义。我所说的非处方,指的是无需专门诊所或植入设备即可获得的增强功能,实际上是消费级的增强人类能力。值得注意的是,这些增强功能越来越具有认知性,而不是物理性。正如社交媒体滤镜和美容手术允许“一键魔法”来重塑我们的外貌一样,像 ChatGPT 这样的 AI 工具可以按需增强记忆力、创造力和解决问题的能力。
我们一直在这样做,从写作和印刷到智能手机和搜索引擎,每一项创新都深刻地改变了我们生活的方式,甚至改变了我们是谁。 但 ChatGPT 在 2022 年底的出现,在规模和直接性上都感觉有所不同。突然间,一个强大的 AI,能够回答问题、编写代码、集思广益等等,掌握在了公众手中。按照这个速度,问题不再是持续使用 ChatGPT 是否让我们有一点超人类化;而是该工具现在是否已经如此深入地嵌入到那个阈值中,以至于它接近于伪赛博格技术。
为了使讨论更具基础性,让我们从一个明确的超人类主义定义开始。简单来说,超人类主义是利用先进技术来超越人类有机体的自然局限性的概念。超人类主义 被描述为一种倡导使用当前或新兴技术的运动,例如_基因工程、冷冻技术、AI、纳米技术_等。换句话说,超人类主义者希望通过科学和技术超越正常的人类状态,最终甚至可能成为具有未增强人类所不具备的扩展能力的“后人类”生物,从而提高人类能力以改善人类福祉。
超人类主义思想流派的现代理论家提供了补充性的定义。哲学家 Max More 在 1990 年代帮助形式化了超人类主义思想,他将其定义为 “一类旨在引导我们走向后人类状态的哲学”。他强调,超人类主义与人道主义一样尊重理性和科学,但“与人道主义的不同之处在于,它认识并预见了我们生活的本质和可能性因先进技术而产生的根本性变化”。沿着同样的思路,前牛津未来学家 Nick Bostrom 解释说,超人类主义者将人类本性视为 “一个正在进行中的工作,一个半生不熟的开始”。我们不必将我们当前的心理和身体限制视为进化的终点。Bostrom 说,通过 “负责任地使用科学、技术和其他理性手段”,超人类主义者希望人类将 “最终设法成为后人类,成为具有比现在人类更大的能力的生物”。然而,这些雄心壮志也招致了严厉的批评。怀疑论者认为,该运动的言论可能会掩盖一种精英主义的愿望,即设计出一个“更好”的人类阶层,从而引发对选择性生物增强和扩大社会分歧的担忧。
斯坦福大学政治学家兼作家 Francis Fukuyama 在他 2004 年的 外交政策 文章“超人类主义” 中警告说:“如果我们开始将自己转变为某种优越的东西,那么这些增强的生物将主张什么权利?与那些被抛在后面的人相比,他们将拥有什么权利?”
简而言之,超人类主义是指有意识地使用技术来克服我们的生物限制,无论是延长寿命、增强身体还是提高思维能力。对于虚构爱好者来说,可以想象一下 沙丘 中的 Mentats,那些经过训练的人类“活电脑”,可以完成曾经由被禁止的思维机器处理的任务。
ChatGPT 和聊天机器人的出现
乍一看,电脑或手机上的聊天机器人听起来可能没有像赛博格植入物或设计基因那样具有戏剧性。毕竟,ChatGPT 并没有在物理上改变你的生理机能,而“只是”一个非常聪明的工具。然而,通用工具和真正的超人类主义增强功能之间的阈值并不总是明确的。
超人类主义并不局限于物理升级。增强认知能力同样重要,许多著名的超人类主义者都在积极追求它。正如我们接受眼镜和假肢作为身体增强一样,我们也可以将 AI 助手视为大脑的增强。关键的区别在于,该工具仅仅提供便利,还是真正扩展了我们作为人类可以知道或做的事情。例如,一个简单的计算器非常有用,但可以说只是自动化了一个狭隘的心理任务。相比之下,ChatGPT 可以生成新的想法、文本和解决方案。这种认知互动可以像拥有一个随叫随到的第二大脑一样进行对话、解释和创造。当一项技术开始如此巨大地放大一个人的智力输出或理解力时,它就开始进入定性增强能力的超人类主义领域。本质上,ChatGPT 允许一个人接入一个巨大的知识网络和一个与任何个人思维相邻的推理引擎。这就是为什么有些人将其描述为一种面向大众的_认知增强_形式,一种无需博士学位或巨额预算即可使用的“非处方”认知提升。
通过适当的以用户驱动的防护措施,例如提示工程,ChatGPT 超越了超人类主义的普通工具阈值,更像是一种认知类固醇。
早在 AI 聊天机器人出现之前,哲学家们就已经认为工具可以成为我们思维的字面延伸。在 1998 年发表的一篇著名论文中,题为 “扩展思维”,Andy Clark 和 David Chalmers 提出,当以正确的方式使用时,像笔记本或计算机这样的对象与大脑中的神经元一样,是一个人认知过程的一部分。他们用 Otto 的例子来描述这一点,Otto 是一位患有阿尔茨海默氏症的患者,他依靠笔记本电脑来记住重要的信息。Otto 以 Inga 为基准,Inga 使用她的生物记忆。当 Inga 想去博物馆时,她会从记忆中回忆起地址。当 Otto 想做同样的事情时,他会在他的笔记本上查找它。Clark 和 Chalmers 认为,对于 Otto 来说,笔记本电脑是一个持续的、值得信赖的资源,它发挥着记忆对 Inga 所起的作用,因此可以被认为是 Otto 思维的一部分。正如他们所说,"笔记本电脑对 Otto 起着与记忆对 Inga 所起的作用相同的作用。笔记本电脑中的信息的功能就像构成普通信仰的信息一样;只是碰巧这些信息位于皮肤之外"。
在 Otto 的案例中,查阅他的笔记本电脑与 Inga 查阅她的大脑并没有根本上的区别,因为两者都是访问存储的信息来指导他们的行为。这个例子有力地表明思维并不局限于大脑。只要它们融入我们的认知惯例,它就可以通过设备和工具扩展到世界中。
那么问题就变成了:外部工具在什么程度上可以算作_你_的一部分? 哲学家们提出了一些标准,有时被称为“粘合和信任”条件,用于何时应将笔记本电脑或作为延伸的应用程序或 AI 视为思维的延伸。
可靠的可用性: 该工具必须随时随地可靠地存在并且易于访问。(Otto 总是随身携带他的笔记本电脑。)
易用性: 从该工具中检索信息应该很容易几乎自动地,无需付出很大的努力或延迟。(在实践中,使用该工具变得很自然,就像回忆记忆一样。)
信任: 你_信任_该工具并接受其输出为真,就像你信任自己的记忆一样。(Otto 不怀疑他的笔记本电脑;如果它说“MoMA 在第 53 街”,他会相信它,就像 Inga 相信她的回忆一样。)
个人整合(事先认可): 理想情况下,系统中的信息是由你放置的或经过你审查的,或者在某种程度上,你已将其整合到你的身份中。(Otto 自己写了笔记本条目,因此它们反映了他_认可_的知识。)
当满足这些条件时,“工具”和“思维”之间的界限就会变得模糊。
Clark 和 Chalmers 解释说,我们的日常体验都满足了这一点。例如,智能手机充当记忆库(包含我们的笔记、联系人、日历)、导航系统,甚至充当一个我们毫不犹豫地咨询的“第二大脑”。事实上,到 2011 年,即使是 Chalmers 也 注意到他的 iPhone 至少满足了熟练用户手中的思维扩展设备的四个标准中的三个。对于我们许多人来说,丢失手机或互联网连接感觉就像丢失了我们思维的一部分,这就是正在发挥作用的扩展思维论题。
然而,构建一个扩展思维也伴随着权衡和警告。一个明显的问题是外部工具可能会失败或出错。如果任何“粘合和信任”条件崩溃,例如设备不可用,或者你突然怀疑其准确性,那么扩展就会崩溃。例如,有经验的 GPS 用户 学会了不要在所有情况下都只信任他们的 GPS。当它不可避免地犯错或失去信号时,他们会保持警惕以纠正它。只有通过技能和关键监督,GPS 才能成为一个人导航思维的有用延伸,而不是盲目的拐杖。同样的警告适用于 AI 助手。过度依赖外部记忆或技能会导致 认知萎缩,在这种情况下,我们可能会停止锻炼自己的记忆力或解决问题的能力,从而变得过于依赖该工具。心理学家已经观察到这种现象,例如 “谷歌效应”,在这种情况下,人们更有可能忘记他们知道可以在网上查找的信息。换句话说,当一个工具总是触手可及时,我们将精神工作转移到它上面,这对于提高效率很有帮助,但可能会使我们的自然能力不发达或容易萎缩。 如果该工具_感觉_像是你思维的一部分,那么也存在虚假自信的风险,你可能会不加批判地接受其输出,就好像它们是你自己的想法一样。正如我们将讨论的那样,对于像 ChatGPT 这样的东西来说,这是一把双刃剑,因为它既可以提供出色的见解,也可以提供听起来自信的胡说八道,这在 AI 研究人员的技术术语中也被称为 幻觉。 因此,扩展思维必须建立在_信任_和_验证_之上。我们必须培养良好的“认知卫生”并使用我们的工具设置护栏。重要的是要知道何时信任 AI 以及何时进行仔细检查,就像一个好的司机知道何时忽略误导性的 GPS 路线一样。仅仅遵守一个简单的“左转”可能是致命的。理想的情况是建立一个平衡的伙伴关系,外部辅助提供知识或速度,而人类则提供监督和背景判断。
唉,国王……ChatGPT,2022 年推出的 AI 聊天机器人,现在已成为 AI 本身的代名词。如果说有什么数字工具有可能充当思维延伸,那么 ChatGPT 就是一个主要候选者。它通常满足我们列出的关键条件。
可用性: 如果你有互联网连接,ChatGPT 或内置于应用程序和设备的类似模型 24/7 全天候可用,可以按需回答问题或生成想法。
易用性: 绝对的,你只需用简单的语言进行对话,它就会在几秒钟内做出回应。人们发现将 ChatGPT 集成到工作流程中非常容易,只需要求它集思广益、解释棘手的概念、起草电子邮件、调试代码等。
信任: 这就是它变得棘手的地方;我们将很快解决它的缺陷,但许多用户确实报告说,在获得一些经验后,他们会产生一种何时信任 AI 的答案的感觉,例如,在熟悉的主题或编码任务上的答案,以及何时保持谨慎,例如当它充满信心地陈述一个可能错误的晦涩“事实”时。ChatGPT 通常被描述为“手边总有一个知识渊博的朋友”,这表明人们对该工具的指导有很高的信任度。
个人整合: 与 Otto 的笔记本电脑不同,你并没有亲自编写 ChatGPT 的所有知识库 - 它是在互联网上的大量内容上进行预先训练的。但是,你可以通过提供你的背景、偏好或写作风格来_自定义_交互。随着时间的推移,AI 的输出可能会开始反映你自己的思维方式或你引导它的方向,从而在你自己的思维和 AI 之间形成一种反馈循环。例如,ChatGPT 的潜在记忆功能 使这种增强变得具体。它会悄悄地保留过去对话、你的项目、偏好和风格怪癖中的关键细节,并使用它们来塑造未来的回应。随着模型“越来越了解”你,你工作记忆的一部分实际上外包给了聊天记录,从而加深了扩展思维伙伴关系。实际上,当有人定期使用 ChatGPT 时,它可以成为一种个性化的认知辅助工具,增强他们的自然能力。
从经验上讲,我们已经看到 AI 工具如何提高人类的认知能力。麻省理工学院最近的一项实验让数百名专业人士从事写作任务(电子邮件、报告等),其中一半可以使用 ChatGPT,另一半则单独工作。那些使用 ChatGPT 的人完成任务的速度 快了 40%,并且他们的输出质量被评为高出约 18%。换句话说,AI 使人们工作得更快更好。有趣的是,写作能力较弱的人受益最多 t,因为 ChatGPT 帮助缩小了人们之间的技能差距,充当了均衡器。这表明 AI 不仅仅是一种花哨的便利工具,而是可以从根本上改变一个人的认知生产力。在创意领域,轶事证据表明 AI 激发了新的想法。作家使用 ChatGPT 来克服写作障碍或产生情节创意。程序员使用它来快速学习新的编程技术。学生(不幸的是)使用它来获得对复杂主题的即时解释。在许多情况下,人们报告说这些工具帮助他们实现了他们_无法_单独实现的结果(至少没有那么容易)。例如,一个非程序员在 ChatGPT 的帮助下构建一个简单的应用程序,或者一个新手作家通过与 AI 迭代来制作一篇润色的文章。所有这些都与 ChatGPT 可以充当认知放大器的概念相一致。它扩展了我们所知道的,有效地让一个人可以一次访问维基百科、图书馆员、导师和创意伙伴的综合体。难怪有些人将其比作 “思维的自行车”(借用史蒂夫·乔布斯对计算机的旧说法),只是现在这辆自行车有时感觉更像是一个喷气背包。随着 AI 助手吸收了重复的或低级的知识工作,我们的顶尖人才不再仅仅依靠原始技术能力来崛起;他们从实践专家变成了协调者。在一个从专业化转向协调的世界中,这些协调者掌握着密钥:他们设计工作流程,制作提示,选择数据源,并将人类人才与机器代理同步为一个无缝的整体,从而释放了任何单个专家都无法单独实现的结果。
协调者的黎明
也就是说,我们还必须解决依赖这种 AI 扩展的缺点和危险。当前生成式 AI 最大的问题也许是它可能对自己过于自信。ChatGPT 实际上并不像我们那样“知道”事实。它根据数据中的模式预测合理的答案。这意味着它有时会产生听起来完全可信的捏造的事实,也就是我们之前描述的“幻觉”。例如,ChatGPT 可能会引用不存在的研究或法律,或者断言完全错误的健康事实,但_似乎是正确的。这些不准确之处非常普遍,以至于研究人员给它们起了个绰号,并且正在积极研究它们发生的原因。如果用户将 ChatGPT 的输出视为福音,像信任一个绝对不会出错的记忆一样信任它,他们可能会遇到麻烦。一个现在臭名昭著的案例涉及 一名律师,他使用 ChatGPT 来帮助撰写法律摘要,而 AI 发明了_ 法院案件来引用。这位律师假设 AI 自信地提供的引文是真实的,因此提交了摘要,后来当法官发现这些案件根本不存在时,他面临了专业的制裁。在这个警示故事中,我们可以了解到,如果你没有保持批判性的参与,那么强大的认知延伸可能会误导你。过度信任 AI 可能会导致错误、错误信息或一个人自身专业知识的丧失。这就是为什么 许多专家强调 AI 素养 以及了解 像 ChatGPT 这样的工具的 优势和劣势 是未来的一项关键技能。
另一个需要考虑的问题是这些工具如何融入我们更广泛的认知习惯。它们是补充我们的思维还是开始取代它?_补充性_认知辅助工具和_竞争性_认知辅助工具之间存在细微但重要的差异。补充性辅助工具处理繁琐的部分,以便你可以专注于更高层次的思维。例如,使用 ChatGPT 为你执行基本的数据输入可能会释放时间和精力,让你综合见解并建立创造性的联系(AI 可能无法做得很好的事情)。在这种模式下,人类和 AI 形成伙伴关系,每个人都做自己最擅长的事情。相比之下,竞争性辅助工具基本上接管了人类过去常做的任务,可能会排挤人类的角色。如果某人使用 AI 来代替学习基础知识,或者将他们所有的创造力外包给算法,他们可能会留下技能和理解能力下降。例如,如果学生依靠 ChatGPT 来完成他们所有的写作,他们可能永远无法发展自己构建论点的能力。AI 已经“竞争”并取代了他们自己的认知成长。在工作场所,这种区别也发挥了作用:AI 助手是简单地_辅助_员工,还是最终_取代_那些没有增加独特价值的人?目前的证据表明,在许多情况下,AI 充当了人类人才的 力量倍增器 , 但我们不能忽视某些工作或技能将被淘汰的可能性。驾驭这一点需要有意识的努力,我们应该拥抱 ChatGPT 的_补充性_用途,让我们取得更多成就,同时防止导致我们自满或技能下降的过度依赖。
所有关于人机耦合的讨论自然会引出赛博格的形象。典型的超人类形象是半人半机器。那么,使用 ChatGPT 会让你成为一个赛博格吗?答案取决于我们如何定义赛博格。
传统上,这个词指的是一个“控制论有机体”,暗示一个技术集成到其身体或生物学中的生物。这个术语最初是在 1960 年代创造的,用于描述 一个身体机能受到植入设备或生化修饰帮助的人。经典的科幻赛博格有机器人肢体、仿生眼睛、脑植入物等等。按照这个严格的定义,仅仅在你的手机上与 AI 聊天并不符合赛博格的定义。在 ChatGPT 的情况下,没有人类和机器的_物理_融合;AI 仍然是一个外部工具,而不是你有机体的字面部分。你可以把你的手机放在抽屉里,_噗_的一声,“赛博格”能力就会消失,这证明了你和该工具是独立的实体。因此,从传统意义上讲,不,使用 ChatGPT 并不能让你成为一个赛博格。
然而,一些理论家已经论证了一种更广泛的赛博格概念,该概念适用于日常生活。值得注意的是,人类学家 Amber Case 认为 我们现在都是赛博格,因为我们不断依赖技术来扩展我们的能力。你可能没有大脑中的芯片,但如果你很少在没有智能手机(你的外部记忆/通信设备)的情况下出门,并且你使用数字工具来调节如此多的体验,那么你在功能上就是一个 赛博格。Case 指出,我们使用我们的手机和电脑作为通信和记忆的“外部大脑”,有效地 成为“盯着屏幕、点击按钮的人类新版本”。在这种更具隐喻意义或社会学意义上,任何将 ChatGPT 用作认知拐杖的人都在进行一种类似于赛博格的人类智能与机器处理的融合。在那些互动时刻,用户和工具之间的界限变得模糊。想想一个人可能会说“我会问我的 AI”,就像他们会说“我会考虑一下”一样——这暗示 AI 已经被纳入了他们的认知循环。一些生物伦理学家和未来学家使用术语“软赛博格”来描述那些虽然没有在身体上得到增强,但与他们的个人技术如此紧密地交织在一起以至于它成为他们自我延伸的人。按照这种观点,我们中的数百万人从我们获得智能手机的那天起就变成了软赛博格,而像 ChatGPT 这样的工具只会加深这种交织。
即便如此,除非我们在字面上植入 ChatGPT 或将其物理连接到我们的身体,否则 ChatGPT 仍然是一个外部工具。我们需要阐明在什么情况下会跨越进入真正的赛博格领域的界限。例如,如果十年后我们有一个 脑机接口 (BCI),可以让你用你的想法查询 AI,并收到即时神经输入形式的答案,那么这显然符合赛博格的定义。像 Neuralink 这样的公司已经在开发高带宽 BCI,理论上,有一天可以将人脑与 AI 系统连接起来。一种侵入性较小的方法可能是增强现实眼镜或隐形眼镜,可以将 AI 辅助叠加到你的视觉和听觉领域,基本上,AI 始终_存在于_你的感知中,而不是局限于外部屏幕。在那个时候,AI 开始感觉像是你感官系统的一部分。
我们还可以想象 AI 驱动的神经假体或植入物可以帮助记忆,或者一个可以在你的脑海中提供外语实时翻译的语言芯片。与聊天机器人应用程序相比,这些以更亲密的方式模糊了用户和设备之间的界限。ChatGPT 无论多么了不起,仍然存在于云端,你必须物理上查询它,并且存在一个清晰的界限(界面、屏幕),信息从机器传递给你。用赛博格的术语来说,它离完整的机械战警还差一步。
因此,称 ChatGPT 用户为完整的“赛博格”主要是一种俏皮的隐喻,暗示着不远的将来。真正的赛博格增强成为你的一部分,即使你没有有意识地考虑它。有人可能会像心脏起搏器一样,让你的心跳保持稳定,或者像耳蜗植入物一样,持续提供听力。
总而言之,在哲学意义上,使用像 ChatGPT 这样的 AI 会让我们走向类似于赛博格的存在,但在字面物理意义上,它不会让我们成为赛博格。对于下一次飞跃,我们需要在物理层面上进行更紧密的集成,在当前阶段,可靠地咨询 AI 仍然在很大程度上需要技能。
如果 ChatGPT 代表一种大众市场、非处方认知增强,我们应该问:谁能从中受益?从历史上看,超人类主义技术面临的一个担忧是,它们可能会在“增强”和“未增强”之间造成鸿沟。例如,只有富人才能负担得起延长寿命的技术或大脑增强。对于 ChatGPT 而言,_经济_障碍实际上相对较低,因为基本版本是免费提供的,但这并不意味着访问是真正平等的。首先,存在直接的数字鸿沟:并非每个人都拥有可靠的互联网连接或使用 AI 的现代设备。数十亿人仍然缺乏宽带接入,即使在富裕国家,服务欠佳和农村社区也可能难以连接。_硬件_和_基础设施_是进入这个增强世界的基线要求。
然而,正如观察员所指出的那样,一种新的鸿沟正在出现,它不仅仅是拥有技术——而是关于了解如何有效地使用它。有些人已经开始将这称为 AI 素养差距,类似于数字素养,但侧重于理解和使用 AI。换句话说,两个人可能都具有互联网访问权限,但如果一个人知道如何制作好的提示、解释 AI 的输出并将其集成到他们的任务中,而另一个人则对 AI 感到害怕或不熟练,那么前者将获得显着的优势。我们已经在教育机构和工作场所看到了这一点。在 AI 使用方面得到有力指导的学生可以制作更好的项目并更快地学习,而那些没有得到指导的学生可能会滥用该工具(例如,只是抄袭他们不理解的答案),或者出于恐惧而完全避免使用它。同样,快速适应使用 AI 工具的专业人员可能会胜过那些坚持使用旧方法的同事。这引发了人们的担忧,即 AI 可能会加剧现有的技能和社会经济差距。那些_在数字方面享有特权_的人不仅可以访问技术,还可以熟练地使用技术,从而可以进一步发展,而其他人则会落后。
另一个微妙的访问问题是 AI 的_免费_版本和最_高级_版本之间的差异。例如,OpenAI 提供 ChatGPT Plus 的付费订阅(可以访问更强大的模型,如 GPT-4)。可以为高级 AI 付费的组织和个人将会获得明显更好的结果,更准确,更不容易出现幻觉,与仅使用免费模型的人相比,具有高级功能。随着时间的推移,如果尖端 AI 仍然需要付费才能使用,我们可能会看到这样一种情况,即更富有的用户实际上拥有比其他人“更强的认知增强”。这与医疗保健方面的差异没有什么不同,只是这里它是一种智能工具。很容易想象未来企业会为员工投资顶级 AI,培训他们使用它,从而大大提高他们的产出,而没有这种资源的小公司或工人则会落后。然而,作为一种对冲,像 deepseek 这样的开源模型 已经做出了人们难以想象的事情,即推出了可以在人们自己的计算机上本地运行的免费模型。虽然,即使只是提出一个简单的问题,也需要企业级硬件才能运行这些完整的模型。 那么,我们如何解决这些差距?AI 素养教育 是一个关键。正如过去几十年中基本的计算机素养变得至关重要一样,知道如何与 AI 交互应该成为一项广泛教授的技能。这包括理解 AI 的局限性和伦理考量,而不仅仅是技术诀窍。一些倡议已经在呼吁将 AI 培训纳入学校和社区项目。 例如,学习如何对 AI 进行事实核查或使用它来辅助(而不是取代)一个人的学习可以被纳入课程。公共图书馆和在线课程可以在普及 AI 工具知识方面发挥作用,使其不局限于技术专家或精英机构。政策制定者和联合国教科文组织等组织已经开始讨论数字时代的“将 AI 素养作为一项人权”,强调如果没有积极的措施,AI 可能会加深不平等,而不是缓解它。
在基础设施方面,继续扩大互联网接入显然至关重要,因为每一个新上网的人都是像 ChatGPT 这样的工具的潜在新受益者。还有一个理由支持 公共利益 AI:确保高级 AI 模型以公众和弱势群体可以访问的形式提供,也许是通过开源模型或政府提供的 AI 服务,而不是将所有最好的 AI 锁在公司的大门后面。
总之,ChatGPT 提供了一个认知增强普遍存在的未来的一瞥,但要使这个未来公平,需要有意识的努力。否则,我们可能会面临这样一种情况:一些人的大脑在 AI 的帮助下变得“更大”,而另一些人则被抛在 AI 范式之前,从而扩大了机会差距。超人主义的概念通常着眼于个人增强,但我们必须扩大这一点:真正的进步将是这些增强尽可能多地提升人们,而不仅仅是少数精通技术的人。
我们正站在人类历史上的一个特殊时刻。我们创造的扩展思维的工具已经变得如此强大,以至于它们迫使我们重新思考首先成为人类意味着什么。ChatGPT 不仅仅是另一个生产力应用程序,它是一面镜子,反映了我们与智能本身不断演变的关系。
本文探讨的核心张力不是 ChatGPT 是否使我们成为超人类(按照大多数定义,它没有),而是它揭示了工具使用和认知增强之间多孔边界的什么。当一项技术如此无缝地融入我们的思维过程,以至于我们难以将自己的想法与其建议分开时,我们就跨越了一个需要新框架来理解人类能力的门槛。
从这个分析中出现了三个关键的紧张关系:
首先,增强悖论:ChatGPT 在增强我们能力的同时,也威胁着我们的能力萎缩。我们变得更有能力,同时也面临着依赖的风险。解决方案不是拒绝这些工具,而是开发新的认知卫生形式:即使我们将常规的脑力劳动委派给 AI,也能保持我们智力肌肉的锻炼。
其次,公平挑战:通过 AI 进行的认知增强可能会使智力民主化,或者创建增强者与未增强者之间的新等级制度。决定因素不是技术本身,而是我们如何构建对它的访问,更重要的是,关于其有效使用的教育。AI 素养可能变得与传统素养一样重要,但我们才刚刚开始理解这意味着什么。
第三,能动性问题:当我们从专家过渡到组织者时,我们必须警惕成为智能系统的简单操作员。在 AI 时代,真正的能动性意味着保持独立思考、质疑 AI 输出以及以独特的人类方式综合见解的能力。我们必须是认知交响乐的指挥,而不仅仅是听众。
也许最深刻的见解是,我们一直在增强自己:通过写作、数学、计算机和智能手机。ChatGPT 只是使这种增强变得不可能被忽视。它剥离了我们工具与我们的思想分离的舒适虚构,并迫使我们面对我们一直以来的样子:使用工具的动物,其智力分布在我们的技术中。
问题不是拥抱还是抵制这个增强的未来。它已经存在了。问题是如何有意识地塑造它。我们需要新的伦理框架来考虑分布式认知,需要在教授传统技能的同时教授编排的教育系统,以及即使我们的工具变得更加强大,也要重新致力于人类的能动性。
最后,ChatGPT 为我们提供了一个未来的一瞥,在这个未来中,人类智能和人工智能之间的界限模糊不清,不是通过物理合并,而是通过认知伙伴关系。我们如何以智慧、公平和意图来驾驭这种伙伴关系,将决定这些工具是增强我们的人性还是削弱它。选择,一如既往,仍然掌握在我们手中。
Bajarin, T. (2014, April 21). 当我们可以使用 Google 时,谁还需要记忆? 时代。 https://time.com/69626/who-needs-a-memory-when-we-have-google
Bostrom, N. (1998). 超人主义思想史。 https://nickbostrom.com/old/transhumanism
Bostrom, N. (2005). 超人主义价值观。 二十一世纪的伦理问题,3–14。https://nickbostrom.com/ethics/values.pdf
Brynjolfsson, E. (2022). 图灵陷阱:类人人工智能的希望与风险。 达达罗斯,151(2), 120–146。 https://www.amacad.org/sites/default/files/publication/downloads/Daedalus_Sp22_19_Brynjolfsson.pdf
Clark, A., & Chalmers, D. J. (1998). 扩展的心灵。 分析,58(1), 7–19。 https://www.consc.net/papers/extended.html
Clynes, M. E., & Kline, N. S. (1960, September). 赛博格和太空。 宇航学,26–27。 https://web.mit.edu/digitalapollo/Documents/Chapter1/cyborgs.pdf
教育周。(2023, May 17). AI 素养,已解释。 https://www.edweek.org/technology/ai-literacy-explained/2023/05
Ghanem, K. (2025, May 9). Instagram face & BBL 坏女孩——欢迎来到超人主义的第一波浪潮。 Mille World. https://www.milleworld.com/instagram-face-bbl-baddies-welcome-to-the-first-wave-of-transhumanism/
Hauser, C. (2023, May 27). 哥伦比亚航空公司的诉讼显示了引用人工智能生成的案例的风险。 纽约时报. https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
IBM. (2023, September 1). 什么是 AI 幻觉? https://www.ibm.com/think/topics/ai-hallucinations
Maiberg, E. (2025, February 10). 微软研究发现 AI 使人类认知“萎缩且毫无准备”。 404 媒体. https://www.404media.co/microsoft-study-finds-ai-makes-human-cognition-atrophied-and-unprepared-3/
Mentat. (n.d.). 在 沙丘维基. Fandom. 于 2025 年 5 月 26 日检索,来自 https://dune.fandom.com/wiki/Mentat
More, M. (1990). 超人主义:走向未来主义哲学 [白皮书]。 https://www.ildodopensiero.it/wp-content/uploads/2019/03/max-more-transhumanism-towards-a-futurist-philosophy.pdf
Noy, S., & Zhang, W. (2023, June 7). 生成式人工智能的生产力效应。 VoxEU/CEPR. https://cepr.org/voxeu/columns/productivity-effects-generative-artificial-intelligence
OpenAI. (2024, February 13). ChatGPT 的记忆和新控件。 https://openai.com/index/memory-and-new-controls-for-chatgpt/
PhilPapers. (n.d.). 超人主义. 在 PhilPapers. 于 2025 年 5 月 26 日检索,来自 https://philpapers.org/browse/transhumanism
Sparrow, B., Liu, J., & Wegner, D. M. (2011). 谷歌对记忆的影响:触手可及的信息对认知的影响。 科学,333(6043), 776–778。 https://scholar.harvard.edu/files/dwegner/files/sparrow_et_al._2011.pdf
联合国教科文组织。(2025, February 12). 关于联合国教科文组织为学生和教师制定的新 AI 能力框架,你需要了解的内容。 https://www.unesco.org/en/articles/what-you-need-know-about-unescos-new-ai-competency-frameworks-students-and-teachers
YouTube. (2025, February 15). 微软研究发现 AI 会使认知信心萎缩 [视频]。YouTube.
- 原文链接: shoal.gg/p/ai-and-cognit...
- 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!