我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
出品|搜狐科技
作者|郑松毅
近日,在《Joule》(焦耳)杂志上发表的一篇文章中,Digiconomist创始人亚历克斯·德弗里斯(Alex de Vries)表示,“如果人工智能工具被广泛采用,或将产生巨大的能源足迹,未来可能会超过一些国家的电力需求。”
Digiconomist 是一家致力于揭示数字发展趋势意外后果的研究公司。他的研究重点是新兴技术对环境的影响,在人工智能、区块链等技术可持续性发展的全球讨论中发挥了重要作用。
自2022年以来,伴随文本、图像等多媒体生成式人工智能(AI)的发展,AI进入快速扩张和大规模应用时代。人工智能成功实现了自动驾驶、音乐创作、以及程序编码等应用。
然而,这种快速发展让人们越来越担心,开发和维护人工智能模型所需的计算资源可能会导致数据中心对全球电力消耗激增。
德弗里斯研究发现,人工智能模型的训练阶段通常被认为是能耗最高的阶段。在此阶段,人工智能模型(例如ChatGPT)将被输入大量数据集,以及执行调整参数的工作。美国的一家人工智能开发公司Hugging Face报告称,其多语言文本生成AI模型在训练期间消耗了约433兆瓦时(MWh),足以为40个普通美国家庭提供一年的电力。其他AI模型,包括GPT-3和Gopher,分别使用了1287和1066兆瓦时(MWh)进行训练。
遗憾的是,能源的大幅消耗并不会随着训练阶段结束而停止。他指出,当AI工具每次生成文本或图像时,也会使用大量的计算能力,从而消耗大量的能源。例如,ChatGPT每天的运行能源成本将近564兆瓦时(MWh)。
“尽管世界各地的科技公司都在致力于提高人工智能硬件和软件的计算效率,但机器效率的提高往往会导致能源使用的增加。”
芯片行业研究公司SemiAnalysis研究报告称,相较于Google常规关键词搜索,使用大模型进行问题搜索所消耗的能源有显著增加。据统计,与人工智能大模型互动的成本或将比常规关键词搜索高出10倍。也就是说,标准Google搜索消耗0.3瓦时的电量,而与LLM(Large-Language Model)每次互动的耗电量为3瓦时。
图片取自原文,与标准 Google 搜索相比,各种人工智能系统的每个请求所用能耗
德弗里斯估计,如果谷歌每次搜索都使用人工智能工具,每年大约需要29.2太瓦时的电力,相当于爱尔兰一年的用电量。他表示,这种极端情况还不太可能在近期发生,因为人工智能还有技术瓶颈没有解决,但预计在不久后能源消耗会随着人工智能的广泛应用而快速增长。
“到2027年,全球人工智能相关电力消耗每年或将增加85至134太瓦时,这一数额相当于荷兰、阿根廷及瑞典等国家的年用电量。”
德弗里斯强调,“开发者在专注于优化人工智能工具时,首先应批判式地思考该场景使用人工智能的必要性,因为不太可能所有应用程序都会受益于人工智能,而可被使用的能源却是有限的。”返回搜狐,查看更多
责任编辑:
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-10-12 18:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: