推荐使用国际直连GPT,立即访问: www.chatgp1.com
众所周知,生成式人工智能的蓬勃发展背后,对水与电的需求日益攀升。而《华盛顿邮报》与加州大学河滨分校的研究人员合作开展的一项新研究,揭示了OpenAI聊天机器人在执行最基本功能时所消耗的资源量,尤其是水资源方面的情况。
就用水量而言,ChatGPT撰写一封100字的电子邮件所需的水量,不仅取决于用户所在州的位置,还与用户距离OpenAI最近数据中心的远近息息相关。在某些水资源相对匮乏而电价较为低廉的地区,数据中心更有可能采用电动空调机组进行制冷。例如,在德克萨斯州,生成这样一封电子邮件,聊天机器人所消耗的水量估计仅为235毫升;而若在华盛顿州进行同样的操作,则需耗水1408毫升,近乎一升半之多。
随着生成式人工智能技术的蓬勃兴起,数据中心的规模愈发庞大且密集,传统的空气冷却系统已难以应对这一挑战。正因如此,众多人工智能数据中心纷纷转向液体冷却方案,通过将大量水泵送至服务器堆栈中,以吸收并带走热能,随后将这些热量传递至冷却塔进行消散。
这一问题并非短期内能够轻易解决的,且在迎来转机之前,可能还会进一步恶化。例如,Meta在训练其最新的Llama 3.1模型时,就需要消耗高达2200万升的水资源。法庭记录显示,谷歌位于俄勒冈州达尔斯的数据中心,其用水量已占据该镇总用水量的近四分之一。而xAI的新孟菲斯超级集群,更是需要150兆瓦的电力供应——这一电量足以满足多达3万户家庭的用电需求——这些电力均来自当地的公用事业公司孟菲斯电力、煤气和水务公司。