top of page
搜尋

從防弊到預警:AI 時代「誠信治理」的新定義

  • 作家相片: Monica Tzou
    Monica Tzou
  • 8月6日
  • 讀畢需時 3 分鐘
ree

想像一個場景:十年前過去的董事會,一項重大投資決策擺在眼前。財務長攤開報表,所有人都盯著他,用經驗與制度去判斷他所說的「事實」是否可信。我們擔心的,是人性中的貪婪或偏見。

十年後的如今,同樣的會議室,提出建議的卻是 AI。它分析了不計其數的數據,給出一個勝率 92% 的結論。這時,我們該盯著誰?當決策的「大腦」從人類擴展到機器,我們過去賴以維生的「誠信治理」框架,其戰場、工具與風險,都已全然不同。

核心精神不變,但遊戲規則已經徹底改變。


過去:我們緊盯著「人」的誠信治理


在 AI 尚未普及的年代,或者說AI尚未成為人人口中談話內容的時代時,企業談論的「誠信治理」,其核心是防範與規範「人類」的不誠信行為。治理的對象是「人」,風險來自於可預期的「人性弱點」。

我們建立各種機制,就像打造一道道防火牆:

  • 防範貪腐與賄賂 (Anti-corruption & Anti-bribery): 我們擔心採購收回扣、業務給回扣,所以制定了《員工行為守則》與內部稽核制度。

  • 確保財務透明 (Financial Transparency): 我們害怕財務長作假帳、掏空公司,因此設計了獨立審計與會計師查核機制。

  • 規避利益衝突 (Conflict of Interest): 我們提防主管將訂單發包給自家人,於是建立了關係人交易的審批流程。

總結來說,過去的誠信治理是「防弊型」的,主要依賴「制度」與「稽核」來管理「個人」或「小團體」已知的道德風險。這是一場與「刻意之惡」的對抗。


如今:我們必須治理「系統」的 AI 誠信


AI 的到來,並未消除上述的傳統風險,反而在其上,疊加了全新的、更複雜的治理維度。治理的對象,從單純的「人」,擴展到了由人創造、卻可能超越人控制的「演算法系統」(人+機器系統)。

這場變革,帶來了幾個關鍵的挑戰:

  1. 治理對象的轉變:從「個人偏見」到「系統性偏見」 過去,我們擔心的是「某個主管」因個人好惡,不錄用特定背景的求職者。這是一個個案。 如今,我們更擔心的是「AI 招聘系統」,因訓練數據的偏差,系統性地、大規模地刷掉某一整個群體的履歷。這不是個案,而是指數級的風險,傷害發生得更廣、更快、更無聲。

  2. 核心風險的演進:從「惡意」到「非意圖的傷害」 過去的風險,多半來自人「刻意的」惡行(如貪污)。 如今,更多的風險,來自 AI 「非意圖的」冰冷決策。開發者沒有惡意,但其創造的系統,卻可能因數據偏見或邏輯盲點,造成巨大的、不公平的後果。這是一種「無心之過」,卻可能比惡意造成更大的傷害。

  3. 當責性的複雜化:從「個人」到「模糊的責任鏈」 過去,財務長作假帳,責任歸屬明確。 如今,AI 決策出錯,責任該歸誰?是提供數據的、設計演算法的、訓練模型的,還是批准上線的主管?當責任鏈變得模糊,傳統的究責方式便宣告失靈。

  4. 透明度的新定義:從「財務透明」到「演算法透明」 過去,我們要求財報的公開透明。 如今,市場與法規開始要求演算法決策的「可解釋性 (Explainability)」。董事會不能只接受「AI 的建議」,更有權力與責任去追問:「AI,你為什麼這樣建議?」


AI 時代的誠信治理,核心是一場思維的躍遷——從「管理已知的、人為的惡」,進化到「治理未知的、系統性的風險」

這要求企業領導者,必須從過去仰賴「事後稽核」的被動角色,轉向「事前設計」與「事中監控」的主動管理者。



 
 
 

留言


© 2023 All Rights Reserved. 莫尼科技有限公司

bottom of page