通信界訊 6月6日周四,美國財政部長耶倫出席了金融穩(wěn)定監(jiān)督委員會(FSOC)有關(guān)人工智能與金融穩(wěn)定的會議,并在開幕致辭中警告金融機構(gòu)使用人工智能技術(shù)的潛在風險。
有分析稱,這是耶倫迄今為止對人工智能作出的最廣泛評論。據(jù)一位美國財政部官員向媒體透露,耶倫本人也嘗試用過人工智能聊天機器人。
上述委員會在2008年金融危機之后由美國財政部牽頭其他監(jiān)管機構(gòu)成立。本次為期兩天的會議與美國智庫布魯金斯學會合辦,“美國版銀監(jiān)會”貨幣監(jiān)理署OCC的負責人也會發(fā)表講話。
會議主題是討論金融服務領(lǐng)域使用AI帶來的潛在系統(tǒng)性風險,并分享鼓勵創(chuàng)新與有效監(jiān)管的洞察。與會者包括監(jiān)管部門,科技公司、保險公司和資產(chǎn)管理機構(gòu)的高管,以及學者和銀行代表。
耶倫眼中的金融業(yè)利用AI“重大風險”:頭寸過于擁擠,放大市場波動?
耶倫在演講中透露,人工智能與金融穩(wěn)定是拜登政府高度重視的話題,“在未來幾年只會變得更加重要”。金融公司使用人工智能帶來的“巨大機遇和重大風險”已成為美國財政部和金融穩(wěn)定監(jiān)督委員會的首要議題。
耶倫承認,人工智能為金融系統(tǒng)提供了巨大機遇,例如通過AI的預測能力進行投資組合管理,利用AI檢測異常的能力來打擊欺詐和非法融資,客服也開始實現(xiàn)自動化。在最新的發(fā)展中,自然語言處理、圖像識別和生成式人工智能有助于金融服務成本更低和更易于獲。
“我們看到,如果使用得當,人工智能可以提高效率、準確性和金融產(chǎn)品的可及性!
但她同時警告稱,金融機構(gòu)使用AI在促進機遇的同時伴隨著“重大風險”(significant risks):
“特定的脆弱性可能源于人工智能模型的復雜性和不透明性,風險管理框架不足以應對人工智能風險,以及由于許多市場參與者依賴相同的數(shù)據(jù)和模型而出現(xiàn)的相互關(guān)聯(lián)特征。
開發(fā)模型、提供數(shù)據(jù)和云服務的供應商集中度過高,也可能會加劇現(xiàn)有的第三方服務提供商風險。數(shù)據(jù)不足或有缺陷則可能延續(xù)現(xiàn)有的偏見或引入新的金融決策偏見!
有分析指出,耶倫意在警告,如果許多投資者都依賴于產(chǎn)生相同結(jié)果的AI工具,這可能導致某些熱門交易的倉位押注擁擠,從而加劇市場上行或下行的走勢。
同時,如果只有少數(shù)幾家公司有能力提供AI模型,一旦其中一家公司出現(xiàn)問題,許多金融機構(gòu)可能受到波及。更別提AI模型有時會產(chǎn)生有偏差或者歧視性的結(jié)果,但耶倫沒提AI系統(tǒng)產(chǎn)生錯誤答案的“幻覺”問題。
美國財政部也在利用AI打擊金融犯罪,F(xiàn)SOC去年首次警告AI對金融體系構(gòu)成威脅
有美國財政部官員透露,F(xiàn)SOC正在努力探究人工智能如何對金融系統(tǒng)構(gòu)成威脅,包括加大力度監(jiān)控人工智能在金融行業(yè)的使用情況。
耶倫承認,美國財政部早就在利用AI技術(shù)來打擊非法金融行為,例如檢測洗錢、恐怖主義融資和逃避制裁等“我們面臨的一些最大風險”,美國國稅局則用AI來增強逃稅的欺詐檢測能力。
未來,美國政府和金融監(jiān)管機構(gòu)將繼續(xù)擴大利用最新技術(shù)的能力、深入了解AI在金融服務領(lǐng)域的用例,并將公開征求市場參與者、消費者、學者和社會公眾對金融領(lǐng)域AI應用的意見。
美國財政部還將舉辦人工智能和保險行業(yè)的圓桌會議,討論保險公司如何防止AI造成貸款歧視等潛在的消費者保護措施,并將同美國國內(nèi)與國際的金融監(jiān)管機構(gòu)定期對話,共同探究和監(jiān)測AI對國際金融體系和全球經(jīng)濟的影響。
耶倫提到,除了促進信息共享和對話之外,金融穩(wěn)定監(jiān)督委員會及其成員機構(gòu)將加強AI監(jiān)管能力,在已有風險管理指導框架的基礎上,還會引入“場景分析”(scenario analysis)的方法:
“鑒于人工智能技術(shù)發(fā)展迅速,金融公司和市場參與者的潛在用例也在快速演變,場景分析可以幫助監(jiān)管機構(gòu)和企業(yè)識別未來潛在的脆弱性,并告訴我們可以采取哪些措施來增強抵御能力!
去年12月,美國金融穩(wěn)定監(jiān)督委員會在2023年度報告中首次警告稱“人工智能對金融體系構(gòu)成潛在威脅”,將人工智能在金融服務領(lǐng)域的廣泛應用視為一個“新興弱點”,AI可能帶來的某些風險包括網(wǎng)絡安全、合規(guī)和用戶隱私保護等問題。
在報告中,監(jiān)管機構(gòu)還提到了對ChatGPT等生成式AI模型“復雜性”的擔憂,除了這些模型可能會產(chǎn)生“幻覺”而提供有缺陷的結(jié)果之外,一些人工智能系統(tǒng)像是外部人員無法洞察的“黑箱運作”,令評估系統(tǒng)概念是否合理變得困難,進而增加對其適用性和可靠性的不確定風險。
例如,監(jiān)管機構(gòu)擔心,如果銀行依賴“神秘的”人工智能模型,就很難理解其底層系統(tǒng)到底有多安全。AI系統(tǒng)也可能產(chǎn)生并掩蓋有偏見或不準確的結(jié)果,導致公平借貸等消費者保護問題。
耶倫也在本次演講中援引了FSOC年報,稱美國財政部希望解決與人工智能相關(guān)的直接運營風險、網(wǎng)絡安全和欺詐挑戰(zhàn)。去年的年報特意指出:
“隨著人工智能方法的復雜性增加,錯誤和偏見會變得更加難以識別和糾正,這凸顯了AI技術(shù)開發(fā)者、使用該技術(shù)的金融行業(yè)公司,以及監(jiān)管這些公司的監(jiān)管機構(gòu)必須保持警惕!