根據(jù)《紐約客》雜志的報道,OpenAI的ChatGPT聊天機(jī)器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當(dāng)于美國家庭每天用電量的1.7萬多倍。隨著生成式人工智能的廣泛應(yīng)用,預(yù)計(jì)到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力,這顯示了AI技術(shù)對電力資源的巨大需求。
隨著人工智能技術(shù)的發(fā)展,對芯片的需求急劇增加,進(jìn)而帶動了電力需求的激增。全球數(shù)據(jù)中心市場的耗電量已經(jīng)從十年前的100億瓦增加到如今的1000億瓦水平。根據(jù)美國Uptime Institute的預(yù)測,到2025年,人工智能業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加到10%。
生成式人工智能帶來了許多創(chuàng)新,但也伴隨著處理性能和功耗方面的高昂成本。馬斯克曾預(yù)計(jì),未來兩年可能從“缺硅”轉(zhuǎn)變?yōu)?ldquo;缺電”,電力短缺可能會成為人工智能發(fā)展的阻礙。他表示,電力短缺可能會像最近的芯片短缺一樣對科技和汽車行業(yè)造成嚴(yán)重影響。
來源:環(huán)球網(wǎng)科技
評論