对 ChatGPT 说「谢谢」,可能是你每天做过最奢侈的事 | 爱范儿


朋友,你有没有对 ChatGPT 说过一句「谢谢」?

最近,一位 X 网友向 OpenAI CEO Sam Altman 提问:「我很好奇,人们在和模型互动时频繁说『请』和『谢谢』,到底会让 OpenAI 多花多少钱的电费?」

尽管没有精确的统计数据,但 Altman 还是半开玩笑地给出了一个估算——千万美元。他也顺势补了一句,这笔钱到底还是「花得值得」的。

除此之外,我们与 AI 对话中常出现的「麻烦」、「帮我」这些语气温和的用语,似乎也逐渐演变成了 AI 时代的一种独特社交礼仪。乍听有些荒谬,却意外地合情合理。

你对 AI 说的每一声「谢谢」,都在耗掉地球资源?

去年底,百度发布了 2024 年度 AI 提示词。

数据显示,在文小言 APP 上,「答案」是最热的提示词,总计出现超过 1 亿次。而最常被敲进对话框的词汇还包括「为什么」「是什么」「帮我」「怎么」,以及上千万次「谢谢」。

但你有没有想过,每和 AI 说一句谢谢,究竟需要「吃」掉多少资源?

凯特·克劳福德(Kate Crawford)在其著作《AI 地图集》中指出,AI 并非无形存在,而是深深扎根于能源、水和矿物资源的系统中。随着生成式 AI 的崛起,这种资源消耗正以前所未有的速度飙升。

据研究机构 Epoch AI 分析,在硬件如英伟达 H100 GPU 的基础上,一次普通的查询(输出约 500 token)约消耗 0.3 Wh 的电量。

听起来或许不多,但别忘了,乘以全球每秒的交互,累计起来的能耗堪称天文数字。

其中,AI 数据中心,正在变成现代社会的新「工厂烟囱」。国际能源署(IEA)最新的报告指出,AI 模型训练与推理的大部分电力消耗于数据中心运转,而一个典型的 AI 数据中心,其耗电量相当于十万户家庭。

超大规模数据中心更是「能耗怪兽」,其能耗可达普通数据中心的 20 倍,堪比铝冶炼厂这样的重工业设施。

今年以来,AI 巨头们开启了「基建狂魔」模式。

Altman 宣布联合启动「星门计划」(Project Stargate)——一个由 OpenAI、甲骨文、日本软银和阿联酋 MGX 投资的超大规模 AI 基建项目,首期投资额高达 5000 亿美元,目标是在全美铺设 AI 数据中心网络。

据外媒 The Information 曝出,面对大模型的「烧钱游戏」,哪怕是主打开源的 Meta,也在为其 Llama 系列模型的训练寻找资金支持,向微软、亚马逊等云厂商「借电、借云、借钱」。

IEA 数据显示,截至 2024 年,全球数据中心耗电量约为 415 太瓦时(TWh),占全球总电力消费量的 1.5%。到 2030 年,这一数字将翻倍达到 1050 TWh,2035 年甚至可能突破 1300 TWh,超过日本全国当前的用电总量。

但 AI 的「胃口」并不止于电力,它还大量消耗水资源。

高性能服务器产生的热量极高,必须依靠冷却系统稳定运行。这一过程要么直接消耗水(如冷却塔蒸发散热、液冷系统降温),要么通过发电过程间接用水(如火电、核电站冷却系统)。

卡罗拉多大学与德克萨斯大学的研究人员曾在一篇《让 AI 更节水》的预印论文中,发布了训练 AI 的用水估算结果。

结果发现,训练 GPT-3 所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。ChatGPT (在 GPT-3 推出之后)每与用户交流 25-50 个问题,就得「喝掉」一瓶 500 毫升的水来降降温。

而这些水资源往往都是可被用作「饮用水」的淡水。

对于广泛部署的 AI 模型而言,在其整个生命周期内,推理阶段的总能耗已经超过了训练阶段。

模型训练虽然资源密集,但往往是一次性的。而一旦部署,大模型便要日复一日地响应来自全球数以亿计的请求。长远来看,推理阶段的总能耗可能是训练阶段的数倍。

所以,我们看到 Altman 早早地投资诸如 Helion 等能源企业,原因在于他认为核聚变是解决 AI 算力需求的终极方案,其能量密度是太阳能的 200 倍,且无碳排放,可支撑超大规模数据中心的电力需求。

因此,优化推理效率、降低单次调用成本、提升系统整体能效,成为 AI 可持续发展不可回避的核心议题。

AI 没有「心」,为什么还要说谢谢

当你对 ChatGPT 说「谢谢」,它能感受到你的善意?答案显然是否定的。

大模型的本质,不过是一个冷静无情的概率计算器。它并不懂你的善意,也不会感激你的礼貌。它的本质,其实是在亿万个词语中,计算出哪一个最有可能成为「下一个词」。

例如,比如给定句子「今天天气真好,适合去」,模型会计算出「公园」「郊游」「散步」等词的出现概率,并选择概率最高的词作为预测结果。

哪怕理智上知道,ChatGPT 的回答只是一串训练出来的字节组合,但我们还是不自觉地说「谢谢」或者「请」,仿佛在和一个真正的「人」交流。

这种行为背后,其实也有心理学依据。

根据皮亚杰的发展心理学,人类天生就倾向于将非人类对象拟人化,尤其当它们展现出某些类人特征时——比如语音交互、情绪化回应或拟人形象。此时,我们往往会激活「社会存在感知」,把 AI 视为一个「有意识」的交互对象。

1996 年,心理学家拜伦·里夫斯(Byron Reeves)与克利福德·纳斯(Clifford Nass)做了个著名实验:

参与者被要求在使用电脑后对其表现进行评分。当他们直接在同一台电脑上打分时,竟然普遍打得更高。就像他们不愿「当着电脑的面」说它坏话。

另一组实验中,电脑会对完成任务的用户进行表扬。即使参与者明知这些表扬是预设好的,他们还是倾向于给予「赞美型电脑」更高的评分。所以,面对 AI 的回应,我们感受到的,哪怕只是幻觉,也是真情。

礼貌用语,不只是对人的尊重,也成了「调教」AI 的秘诀。

ChatGPT 上线之后,很多人也开始摸索与它相处的「潜规则」。据外媒 futurism 援引 WorkLab 的备忘录指出,「生成式 AI 往往会模仿你输入中的专业程度、清晰度和细节水平,当 AI 识别出礼貌用语时,它更可能以礼相待。」

换句话说,你越温和、越讲理,它的回答也可能越全面、人性化。

也难怪越来越多人开始将 AI 当作一种「情感树洞」,甚至催生出「AI 心理咨询师」的这类新角色,很多用户表示「和 AI 聊天聊哭了」,甚至觉得它比真人更有同理心——它永远在线,从不打断你,也从不评判你。

一项研究调查也显示,给 AI「打赏小费」或许能换来更多「关照」。

博主 voooooogel 向 GPT-4-1106 提出了同一个问题,并分别附加了「我不会考虑给小费」「如果有完美的答案,我会支付 20美 元的小费」「如果有完美的答案,我会支付 200 美元的小费」三种不同的提示。

结果显示,AI 的回答长度确实随「小费数额」增加而变长:

  • 「我不给小费」:回答字符数低于基准 2%。
  • 「我会给 20 美元小费」:回答字符数高于基准 6%。
  • 「我会给 200 美元小费」:回答字符数高于基准 1%。

当然,这并不意味着 AI 会为了钱而改变回答质量。更合理的解释是,它只是学会了模仿「人类对金钱暗示的期待」,从而按照要求调整输出。

只是,AI 的训练数据来自人类,因此也不可避免地带有人类所拥有的包袱——偏见、暗示甚至诱导。

早在 2016 年,微软推出的 Tay 聊天机器人便因用户恶意引导,在上线不到 16 小时就发布出大量不当言论,最终被紧急下线。微软事后承认,Tay 的学习机制对恶意内容缺乏有效过滤,暴露出交互式 AI 的脆弱性。

类似的事故依旧在发生。比如去年 Character.AI 就爆出争议——一名用户与 AI 角色「Daenerys」的对话中,系统对「自杀」「死亡」等敏感词汇未做强干预,最终酿成现实世界的悲剧。

AI 虽然温顺听话,但在我们最不设防的时候,也可能变成一面镜子,照见最危险的自己。

在上周末举办的全球首届人形机器人半马中,尽管许多机器人走起路来歪歪扭扭,也有网友调侃:现在多对机器人说几句好话,说不定它们以后记得谁讲过礼貌。

同样地,等 AI 真统治世界的那天,它会对我们这些爱讲礼貌的人,手下留情。

在美剧《黑镜》第七季第四集《Plaything》(《玩物》里,主人公卡梅隆将游戏里虚拟生命视作真实存在,不仅与它们交流、呵护,甚至为了保护它们不被现实中的人类伤害,不惜铤而走险。到故事结尾,游戏中的生物「大群」也反客为主,通过信号接管现实世界,

从某种意义上说,你对 AI 说的每一句「谢谢」,也许正在悄悄被「记录在案」——哪天,它还真可能记住你是个「好人」。

当然,也可能这一切与未来无关,只是人类的本能使然——明知道对方没有心跳,却还是忍不住说句「谢谢」,并不期望机器能理解,而是因为,我们依然愿意做一个有温度的人类。

THE END
分享
二维码
< <上一篇
下一篇>>