">
據西班牙《機密報》網站8月15日報道,人工智能(AI)正在迅速改變我們的社會,它會對經濟造成怎樣的后果仍然屬未知領域。然而,一些聲音已經警告稱,這些機器學習算法導致的新一輪金融崩潰的風險是真實存在的。其中一個聲音來自美國證券交易委員會主席加里·根斯勒,他日前警告稱:“人工智能將成為未來金融危機的中心,監管機構將無法向前邁步。”
作為監管機構的負責人,根斯勒在接受彭博社采訪時表示,人工智能在金融市場最明顯的風險是黑匣子算法,在用戶看不到算法內部功能的封閉系統下運行,很可能會失去控制,最終同時出售同樣的東西,導致市場崩潰。
根斯勒多年來一直警告說,如果不及時控制,人工智能可能會非常危險。2020年,當時還是麻省理工學院教授的根斯勒在一篇文章中警告深度學習(一種機器學習和人工智能系統)對金融穩定的風險。文章認為,現有的監管制度尚未準備好應對這種危險。
他指出,人工智能在金融市場中的危險之一是同質化。這種情況可能是所謂的“學徒效應”的結果。當有資格管理此類系統的人來自同一所學校、擁有相同的背景并建立牢固的親和力時,就會出現這種效應。根斯勒在研究中解釋說:“根本沒有那么多人接受過構建和管理這些模型的培訓,而且他們往往來自相當相似的背景。”
這種風險也可能是由法規本身造成的。如果監管機構對人工智能可以做什么和不能做什么進行控制,可能會增加它們最終同時做同樣事情的危險,并會增加大多數公司選擇使用由少數提供商提供的相同人工智能的可能性。
由于人工智能以不可預測的方式進化,我們很難了解它們的行為機制,而這隱含的巨大風險之一就是它們可能會對人類產生歧視行為。例如,一款昨天并不是種族主義者的人工智能今天可能會成為種族主義者,而我們卻沒有及時意識到并阻止它。此外,這些規則將是完全不透明和不可控的,甚至沒有追溯性監管,這使得監管機構幾乎不可能阻止未來的崩潰。
根斯勒警告說:“根據相同的數據集構建的模型可能會產生高度相關的預測,這些預測一致進行,從而導致羊群效應。”他還認為,對海量數據源的需求可能會產生壟斷,并成為導致整個系統全面崩潰的“單一故障點”。
此外,他指出,即使是最大的數據集也是不完整的,“互聯網使用情況、手持設備數據、遠程信息處理數據以及GPS數據和智能手機數據根本沒有足夠長的時間范圍來覆蓋單個完整的金融周期”。
根斯勒認為,最有效的監管對策是增加金融機構使用人工智能工具所需的資本存量。監管機構可能會要求對人工智能系統進行測試,以阻止或禁止公司采取無法解釋的行動,從而減緩增長速度,但根斯勒也警告說,“即便如此,也不太可能避免系統性風險的增加”。他說,即使實施了監管規則,仍“不足以完成當前的任務”。(編譯/韓超)

來源:參考消息
Copyright ? 2001-2025 湖北荊楚網絡科技股份有限公司 All Rights Reserved
互聯網新聞信息許可證 4212025003 -
增值電信業務經營許可證 鄂B2-20231273 -
廣播電視節目制作經營許可證(鄂)字第00011號
信息網絡傳播視聽節目許可證 1706144 -
互聯網出版許可證 (鄂)字3號 -
營業執照
鄂ICP備 13000573號-1
鄂公網安備 42010602000206號
版權為 荊楚網 www.cnhubei.com 所有 未經同意不得復制或鏡像