金融市場中之AI道德問題

人工智能(AI)技術在金融市場中的應用日益廣泛,從自動化交易到風險管理,AI為金融行業帶來了許多創新。然而,這些技術的快速發展也引發了諸多可能的道德問題,首要為最常被提出的個人資訊隱私及保護問題,由於金融機構常握有大量客戶個人資料、敏感訊息,如何確保在運用AI的同時可以保障客戶之隱私,成為金融業者在導入AI系統時必須時刻注意之事項,其次,對於AI運用過程中是否會出現「人」的偏見與歧視觀點也是在AI應用時另一角度的擔憂。
AI在金融市場中的應用簡介
AI技術在金融市場的應用範圍非常廣泛,包括自動化交易、風險預測、客戶服務和反洗錢等,如銀行對於風險管理上,業者可將過去歷史資料納入AI資料庫使AI學習檢測和識別潛在金融風險,提早預防使銀行避免損失。這些技術的引入不僅提高了金融機構的運營效率,也改善了風險管理和合規流程。然而,AI技術同時也是一把雙面刃,其應用也帶來了一系列新的道德問題需業界和監管機構的重視。
AI道德問題的核心
- 數據隱私與保護
金融機構擁有客戶的大量資訊,而如何透過AI演算與分析的同時保障客戶個資的隱私是金融機構在運用AI時應注意的事項。AI系統依賴大量數據進行訓練和預測,這些數據往往涉及個人隱私,當金融機構欠缺個資保護意識時可能使其面臨違規、身分盜用(Jame, 2024),數據濫用也是金融機構在AI運用上可能會出現的問題,AI可能會將資料原有者之資料用於其所不期望之目的中,以上問題皆會造成客戶對於金融業者失去信賴(Stephens,2024)。
過去曾發生的案例為美國大型金融機構Capital One於2019年的數據洩漏事件是一個典型的例子。此次事件中,駭客利用Capital One的雲服務配置錯誤,非法獲取了超過1億美國和加拿大客戶的個人資料,包括社會安全號碼、銀行帳號號碼等敏感信息。儘管主要原因是安全配置漏洞,但這也揭示了AI技術在數據管理和安全監控中的不足,AI系統未能及時檢測異常行為並阻止數據洩漏,暴露了金融機構在使用AI技術時必須更加重視數據隱私和安全保護的問題。
- 算法偏見與歧視
當我們探討 AI 偏誤和歧視的原因時,首先需要定義這兩個概念。狹義的 AI 偏誤通常在統計或計算的脈絡中討論,指的是 AI 的預測或決策結果可能偏向某些特定群體或資料,導致統計結果被系統性地扭曲,且所得數據缺乏樣本代表性。廣義的 AI 偏誤則常在法律、社會制度或系統性的脈絡中探討,意指如果 AI 對某群體的預測或決策的準確性很低,並且該群體的權益因 AI 的應用而受損,這種偏誤就可視為歧視。這是因為法律或社會普遍認為,不應基於性別、年齡、身心障礙、種族、社會階級、國籍或膚色等因素對人們進行差別對待(Schwartz, et al., 2022)。
AI的結果可能會反映出訓練AI時的數據中原本出現的偏見,因此若金融業者在此步驟時就已將具有歧視性的性別、種族、年齡等資料不當地納入訓練的數據庫,可能會導致歧視性結果,前Twitter exec Rumman Chowdhury於2023年的Money 20/20 EU中提出對AI在金融業運用的隱憂,如信貸歧視,對於這些族群或個人之性別、種族或年齡而被拒絕接待或被收取更高利率,或是信貸評分偏見,信貸系統可能對於某族群不公平而導致他們處於信貸評分上的劣勢,或如紅線政策,銀行或金融機構可能會將某些地區劃為高風險區域,從而拒絕為該地區的居民提供貸款或保險服務。
對此,Chowdhury也提出對AI監管與責任的重要,並認為此屬於全球性問題,應建立類似聯合國之全球性組織監管,且需有在推動AI決策透明度上應確保公眾參與,使多方參與設計AI佈署系統。
相關對應與治理法規
根據安永管顧公司總經理萬幼筠於今年2月所發布之〈生成式人工智慧對金融服務的價值核心〉一文中(萬幼筠,2024)說明,根據經驗,不應讓生成式AI在貸款核准及其他重大決策中擁有最終決定權,應該加入人類參與(Human Oversight)。在引進這類AI應用的初期,應對其可能對銀行帶來的衝擊與效益進行倫理審查(Put Human on The Loop)。在開發過程中,各個階段如規格確定、資料收集和清理、應用整合及布建等都應有人員參與評測(Put Human in the Loop)。上線前,還應進行使用者測試,讓非需求與開發團隊的使用者在保密環境下進行情境測試(Put Human off the Loop)。如果無法做到上述步驟,則應讓生成式AI處理繁重的工作,並由金融專業人士做出最終決定。
另外,針對AI的安全治理法規,美國與歐盟分別有依此組織相關對策組織,美國政府白宮發布的 「安全與可信賴人工智慧行政命令第14100號」,並根據該行政命令第4節第4.1款要求美國商南部 (DOC)於今年2月28日宣布成立AI安全研究所聯盟(AI Safety Institute Consortium, AISIC),歐盟也在今年通過《歐盟人工智慧法案》,二者均認為人工智慧的安全課題可分為AI發展之資料治理的安全性與機器學習演算法的安全性,不過萬總經理認為現在隨著生成式AI等高端應用出現,使用基礎模型進行機器學習訓練的先進AI 安全,實為AI應用安全重中之重(萬幼筠,2024)。
普匯觀點
生成式AI在金融服務中大大提升了效率和降低了成本,但其應用同時也引發了各界的隱憂與質疑。從上述討論中可以看出,金融機構在使用AI時會面臨的主要道德問題,這些問題突顯了對AI監管需求的提升和不可忽視性。生成式AI背後涉及深度機器學習和數據資料庫的建立,因此,避免上述道德問題的關鍵在於數據資料建立之初就應加以注意。近期,金管會發布的金融機構使用AI指引正是針對金融機構在運用AI時應注意的管理原則,確保金融業者在導入AI應用時的安全性和合規性。