AI在氣候變化領(lǐng)域的實際應用尚存不足,主要體現(xiàn)在數(shù)據(jù)匱乏與模型偏差大、“黑箱”模型可解釋性差、突發(fā)氣候事件適應性弱、技術(shù)倫理風險等4個方面。
首先,AI模型依賴海量高質(zhì)量數(shù)據(jù),但相關(guān)氣候觀測數(shù)據(jù)在發(fā)展中國家或偏遠地區(qū)嚴重匱乏,導致預測模型精度及可信性下降。AI模型被用于預測熱帶氣旋(臺風、颶風)強度與路徑時,因訓練數(shù)據(jù)地理分布不均,導致模型在特定區(qū)域預測偏差很大。例如,相比于北大西洋豐富且完整的颶風數(shù)據(jù),南印度洋數(shù)據(jù)較少且質(zhì)量低,多項研究揭示,基于深度學習模型對后者強度的預測誤差比前者高出20%以上。
其次,AI算法存在“黑箱”效應及困境,即模型內(nèi)部工作機制難以解釋和理解,輸入與輸出的物理映射不可捉摸,導致決策邏輯不透明、難以被采納。當預測極端氣候事件時,一些氣象學家因AI模型邏輯無法理解而更依賴于傳統(tǒng)動力學方法??山忉屝匀斯ぶ悄埽‥xplainable AI,XAI)的發(fā)展有望打破AI模型預測準確度與可解釋性的權(quán)衡。
此外,AI訓練基于歷史基礎(chǔ)數(shù)據(jù),難以應對氣候系統(tǒng)的非線性突變。2021年6月,北美西北部遭遇有史以來最嚴重熱浪和極端高溫,而AI預測模型因缺乏類似極端數(shù)據(jù)且未包含“高溫—能源需求非線性耦合機制”,對電網(wǎng)負荷預測失效,引發(fā)大規(guī)模停電。
最后,AI在氣候變化應用中可能引發(fā)倫理道德挑戰(zhàn),如訓練偏見和不公平、數(shù)據(jù)隱私
政策、氣候決策不透明等
問題。只有通過跨學科協(xié)作、民主化技術(shù)治理和全球倫理共識,才能讓AI 真正成為普惠的“氣候正義工具”。