_**Guillermo Delgado Aparicio** 是 Nisum 的全球人工智慧領導者。_* * ***探索頂尖金融科技新聞與活動!****訂閱 FinTech Weekly 的電子報****由 JP Morgan、Coinbase、Blackrock、Klarna 等高層閱讀*** * *金融科技中的人工智慧涵蓋多種應用範疇,從詐騙偵測與演算法交易到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在75%的使用人工智慧的公司中,只有34%了解其運作原理。問題不僅在於缺乏認識,而是對資料分析的力量與範圍存在深刻誤解,這正是人工智慧的根源。生成式人工智慧工具的普及已將此議題帶入高層管理層。但許多決策者在實施人工智慧時,並不理解其背後的微積分、統計學與高階演算法原理。以本福德定律為例,這是一個簡單的統計原則,用來通過數字中的模式來偵測詐騙。人工智慧建立在類似的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與演算法。這也是為何高層管理者的人工智慧素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:監管機構曾試圖禁止國際IP通話,卻見技術超越規則。同樣的動態也在人工智慧中上演。你不能封鎖或盲目採用它;你需要判斷力、情境理解與負責任的引導能力。金融科技領導者必須彌合這些差距,以負責任且有效地運用人工智慧。這意味著理解分析何時結束、人工智慧何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時、如何信任其輸出。**人工智慧的限制、盲點與幻象**------------------------------------------------分析學分析過去與現在的資料,解釋發生了什麼以及為何會這樣。人工智慧則在此基礎上,運用先進分析預測未來,並逐漸自動做出決策或行動。憑藉其卓越的資料處理能力,金融科技領導者很容易將人工智慧視為魔法子彈。但它並非萬能。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或“髒”時。人工智慧可能難以理解人類能迅速掌握的語境細微差別。然而,認為不完美的資料使人工智慧無用,是一個錯誤。分析模型可以處理不完整的資料。但知道何時部署人工智慧、何時依賴人類判斷來填補空白,才是真正的挑戰。若缺乏這種謹慎監督,人工智慧可能帶來重大風險。其中一個問題是偏見。當金融科技用舊資料訓練人工智慧時,往往會繼承資料中的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,從而影響信用評分,這是監管機構不會批准的。這些偏見,藏在數學中,常需人類監督來察覺與修正。當人工智慧模型遇到未曾訓練過的情境,可能導致**模型漂移**。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型的效能,若缺乏人類監控與重新校準。當金融科技使用黑箱模型,無法看到變數之間的關係時,重新校準的難度會急劇上升。在這種情況下,企業失去將知識傳遞給管理層決策者的可能性。此外,不透明模型中的錯誤與偏見也難以察覺,削弱信任與合規性。**金融科技領導者需要了解的事項**----------------------------------------德勤調查顯示,80%的公司表示其董事會幾乎沒有人工智慧經驗。但高層管理者不能將人工智慧視為“技術團隊的問題”。人工智慧的責任在於領導層,因此金融科技領導者必須提升相關技能。### **跨分析能力**在推行人工智慧之前,金融科技領導者必須能夠切換視角——觀察數字、商業案例、運營與倫理——並理解這些因素如何交織影響人工智慧的結果。他們需要理解模型的統計準確性如何關聯於信用風險暴露。並且要能辨識一個看似合理(如還款紀錄)的變數,可能因與某些受保護族群(如年齡或族裔)相關聯而引入社會或監管風險。這種人工智慧素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。在金融科技中,100%的風險避免是不可能的,但具備跨分析能力的領導者,能夠辨識值得冒的風險與應避免的風險。這項技能也能提升領導者辨識與應對偏見的能力,不僅從合規角度,更從策略與倫理角度。例如,若一個基於人工智慧的信用評分模型偏向某一客戶群,修正這種不平衡不僅是資料科學的任務,更是保護公司聲譽的行動。對於致力於金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。### **可解釋性素養**可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們需要在模型邏輯不清楚時提出問題,並認識到“準確性”單獨不足以支持黑箱決策。偏見並非無中生有;它在模型訓練與部署時若缺乏充分監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成損害前採取行動。人工智慧就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦是如此。團隊需要能停止交易、調整策略,甚至在條件變化時中止產品推出。可解釋性與備用控制能力相輔相成,確保高層理解人工智慧,並在其規模運作時仍能掌控。### **概率模型思維**高層習慣做決定,比如信用分低於650就拒絕申請。但人工智慧的運作方式不同,這是一個重大的思維轉變。對領導者而言,概率思維需要具備三個能力: * 解讀風險範圍,而非二元的是/否結果。 * 比較預測的信心程度與其他商業或監管考量。 * 知道何時應該覆蓋自動化,運用人類判斷。例如,一個金融科技的概率人工智慧模型可能將某客戶標記為高風險,但這不一定代表“拒絕”。可能意味著“進一步調查”或“調整貸款條件”。若缺乏這種細膩度,則自動化可能變成一把鈍刀,削弱客戶信任,並引來監管壓力。**為什麼判斷層將決定金融科技的勝負**---------------------------------------------------------未來的金融科技不會由擁有最強大人工智慧模型的人來決定,而是由能用判斷力最敏銳的人來贏得。隨著人工智慧商品化,效率提升已成為基本條件。真正的贏家在於能在算法遇到不確定性、風險與倫理灰區時,果斷介入。判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市,或覆蓋不符合實際情況的風險評分時。這些都不是人工智慧的失誤,而是證明人類監督是價值創造的最後一道防線。策略性的一致性使判斷成為制度化的元素。一個強有力的人工智慧策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊的AI能力、建立必要的資料架構,並將每次部署與明確的商業成果相連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向推動領導。金融科技需要能在速度與規模上運用人工智慧,同時由人類掌握情境、細微差別與長遠願景的領導者。人工智慧能在秒內偵測異常,但只有人能決定何時反駁數學、重新思考假設,或勇於冒險開啟成長之門。這層判斷力,才是將人工智慧從工具轉化為優勢的關鍵。### **關於作者:**Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進地球與太空人類福祉的創新解決方案。作為企業策略顧問,他曾參與 NASA 的太空生物學人工智慧願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得學位。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。
判決層:為什麼人工智慧在領導者更聰明之前並不真正聰明
Guillermo Delgado Aparicio 是 Nisum 的全球人工智慧領導者。
探索頂尖金融科技新聞與活動!
訂閱 FinTech Weekly 的電子報
由 JP Morgan、Coinbase、Blackrock、Klarna 等高層閱讀
金融科技中的人工智慧涵蓋多種應用範疇,從詐騙偵測與演算法交易到動態信用評分與個人化產品推薦。然而,一份金融行為監管局的報告指出,在75%的使用人工智慧的公司中,只有34%了解其運作原理。
問題不僅在於缺乏認識,而是對資料分析的力量與範圍存在深刻誤解,這正是人工智慧的根源。生成式人工智慧工具的普及已將此議題帶入高層管理層。但許多決策者在實施人工智慧時,並不理解其背後的微積分、統計學與高階演算法原理。
以本福德定律為例,這是一個簡單的統計原則,用來通過數字中的模式來偵測詐騙。人工智慧建立在類似的數學基礎上,只是規模擴展到數百萬筆交易。撇除炒作,基礎仍是統計學與演算法。
這也是為何高層管理者的人工智慧素養如此重要。無法區分分析何時結束的領導者,可能會過度信任自己不理解的系統,或因恐懼而低估其潛力。歷史告訴我們,當決策者誤讀科技時會發生什麼:監管機構曾試圖禁止國際IP通話,卻見技術超越規則。同樣的動態也在人工智慧中上演。你不能封鎖或盲目採用它;你需要判斷力、情境理解與負責任的引導能力。
金融科技領導者必須彌合這些差距,以負責任且有效地運用人工智慧。這意味著理解分析何時結束、人工智慧何時開始,建立引導這些系統的技能,以及運用明智判斷來決定何時、如何信任其輸出。
人工智慧的限制、盲點與幻象
分析學分析過去與現在的資料,解釋發生了什麼以及為何會這樣。人工智慧則在此基礎上,運用先進分析預測未來,並逐漸自動做出決策或行動。
憑藉其卓越的資料處理能力,金融科技領導者很容易將人工智慧視為魔法子彈。但它並非萬能。人類在模式識別方面仍具有天生優勢,尤其在資料不完整或“髒”時。人工智慧可能難以理解人類能迅速掌握的語境細微差別。
然而,認為不完美的資料使人工智慧無用,是一個錯誤。分析模型可以處理不完整的資料。但知道何時部署人工智慧、何時依賴人類判斷來填補空白,才是真正的挑戰。若缺乏這種謹慎監督,人工智慧可能帶來重大風險。
其中一個問題是偏見。當金融科技用舊資料訓練人工智慧時,往往會繼承資料中的偏差。例如,客戶的名字可能無意中成為性別的代理指標,或姓氏暗示族裔,從而影響信用評分,這是監管機構不會批准的。這些偏見,藏在數學中,常需人類監督來察覺與修正。
當人工智慧模型遇到未曾訓練過的情境,可能導致模型漂移。市場波動、監管變化、客戶行為演變與宏觀經濟轉變,都可能影響模型的效能,若缺乏人類監控與重新校準。
當金融科技使用黑箱模型,無法看到變數之間的關係時,重新校準的難度會急劇上升。在這種情況下,企業失去將知識傳遞給管理層決策者的可能性。此外,不透明模型中的錯誤與偏見也難以察覺,削弱信任與合規性。
金融科技領導者需要了解的事項
德勤調查顯示,80%的公司表示其董事會幾乎沒有人工智慧經驗。但高層管理者不能將人工智慧視為“技術團隊的問題”。人工智慧的責任在於領導層,因此金融科技領導者必須提升相關技能。
跨分析能力
在推行人工智慧之前,金融科技領導者必須能夠切換視角——觀察數字、商業案例、運營與倫理——並理解這些因素如何交織影響人工智慧的結果。他們需要理解模型的統計準確性如何關聯於信用風險暴露。並且要能辨識一個看似合理(如還款紀錄)的變數,可能因與某些受保護族群(如年齡或族裔)相關聯而引入社會或監管風險。
這種人工智慧素養來自與合規人員討論規範、與產品經理探討用戶體驗,以及與資料科學家審查模型結果,以捕捉漂移或偏見的跡象。
在金融科技中,100%的風險避免是不可能的,但具備跨分析能力的領導者,能夠辨識值得冒的風險與應避免的風險。這項技能也能提升領導者辨識與應對偏見的能力,不僅從合規角度,更從策略與倫理角度。
例如,若一個基於人工智慧的信用評分模型偏向某一客戶群,修正這種不平衡不僅是資料科學的任務,更是保護公司聲譽的行動。對於致力於金融包容或面臨ESG審查的金融科技公司來說,僅符合法律規範是不夠的。判斷力意味著知道什麼是正確的,而不僅僅是允許的。
可解釋性素養
可解釋性是建立信任的基礎。沒有它,決策者、客戶與監管者都會質疑模型為何得出特定結論。
這要求高層能區分可解釋模型與需要事後解釋(如SHAP值或LIME)的模型。他們需要在模型邏輯不清楚時提出問題,並認識到“準確性”單獨不足以支持黑箱決策。
偏見並非無中生有;它在模型訓練與部署時若缺乏充分監督就會產生。可解釋性讓領導者能早期察覺這些問題,並在造成損害前採取行動。
人工智慧就像飛機的自動駕駛。大多數時間運行順暢,但遇到風暴時,飛行員必須接管。在金融領域亦是如此。團隊需要能停止交易、調整策略,甚至在條件變化時中止產品推出。可解釋性與備用控制能力相輔相成,確保高層理解人工智慧,並在其規模運作時仍能掌控。
概率模型思維
高層習慣做決定,比如信用分低於650就拒絕申請。但人工智慧的運作方式不同,這是一個重大的思維轉變。
對領導者而言,概率思維需要具備三個能力:
例如,一個金融科技的概率人工智慧模型可能將某客戶標記為高風險,但這不一定代表“拒絕”。可能意味著“進一步調查”或“調整貸款條件”。若缺乏這種細膩度,則自動化可能變成一把鈍刀,削弱客戶信任,並引來監管壓力。
為什麼判斷層將決定金融科技的勝負
未來的金融科技不會由擁有最強大人工智慧模型的人來決定,而是由能用判斷力最敏銳的人來贏得。隨著人工智慧商品化,效率提升已成為基本條件。真正的贏家在於能在算法遇到不確定性、風險與倫理灰區時,果斷介入。
判斷層不是抽象概念。它體現在高層決定暫停自動交易、延遲產品上市,或覆蓋不符合實際情況的風險評分時。這些都不是人工智慧的失誤,而是證明人類監督是價值創造的最後一道防線。
策略性的一致性使判斷成為制度化的元素。一個強有力的人工智慧策略不僅制定技術路線圖,更確保組織定期檢視計畫、升級團隊的AI能力、建立必要的資料架構,並將每次部署與明確的商業成果相連結。在這個意義上,判斷不是偶發事件,而是融入運作模式,讓高層能以價值為導向推動領導。
金融科技需要能在速度與規模上運用人工智慧,同時由人類掌握情境、細微差別與長遠願景的領導者。人工智慧能在秒內偵測異常,但只有人能決定何時反駁數學、重新思考假設,或勇於冒險開啟成長之門。這層判斷力,才是將人工智慧從工具轉化為優勢的關鍵。
關於作者:
Guillermo Delgado 是 Nisum 的全球人工智慧領導者兼 Deep Space Biology 的首席營運官。擁有超過25年的生物化學、人工智慧、太空生物學與創業經驗,他致力於開發促進地球與太空人類福祉的創新解決方案。
作為企業策略顧問,他曾參與 NASA 的太空生物學人工智慧願景,並獲得多項創新獎。他擁有喬治亞理工學院的人工智慧碩士學位,並以優異成績取得學位。此外,他也曾擔任大學教授,教授機器學習、大數據與基因科學等課程。