因應金管會6月20日正式公布「金融業運用人工智慧(AI)指引」,臺灣證券交易所正研擬證券市場AI監理政策,預計今年第3季陳報金管會;一旦金管會核定及證券商公會在自律規範中納入AI管理要求後,再修正相關規定,讓證券業者有所遵循。
AI技術帶來大量成長機會,也帶來前所未有的風險與挑戰,促使各國監管機關對AI技術的關注,從單純討論成本及效益問題,擴展到風險管理面向,新監管政策相繼推出。
不過,國際間對AI發展的監理態度仍試圖尋求平衡,希望不妨礙創新,又要保障AI技術的倫理、合規及安全性。我國目前對AI技術的政策方向,也與國際趨勢一致,著重於核心原則的訂定,並提供相關指引,尚未明確針對特定類型的應用或特定類型演算法提供具體限制。
金管會去年8月已訂定「金融業運用人工智慧之核心原則與相關推動政策」草案,並於今年6月20日正式公布「金融業運用AI指引」,該指引融合美國NIST將AI系統以生命周期方式呈現,另參酌歐盟以風險為基礎的分類方式。
在指引公布後,各金融產業公會也開始就不同行業特性及營運方式,增修相關規範供業者遵循,銀行公會已率先公布實施。
證交所目前也正依據金管會指引及參考銀行公會運用AI技術作業規範,證券市場AI監理政策將陸續於下半年推出。依照證交所規劃,「證券期貨市場相關公會新興科技資通安全管控指引」的AI相關安全控管方針,預計今年第3季陳報金管會。
等到主管機關核定及證券商公會於自律規範中納入AI管理要求後,證交所將研修「建立證券商資通安全檢查機制」及「證券商內部控制制度標準規範」等規定,提供證券業者遵循。
不過,在此之前,因應AI技術應用於深度偽造(Deepfake)的詐騙手法日益猖狂,證交所2022年已協助證券商公會修訂「新興科技資通安全自律規範」,規定證券商使用影像視訊方式進行身分驗證時應強化驗證,並建議定期辦理強化防範認知課程。