#13 不只是技術風險:為什麼AI應該成為企業利害關係人評估的一部分?
AI治理的下一步:從責任歸屬到利害關係人風險評估
AI技術正在快速改變我們的生活,從銀行貸款、求職面試到醫療診斷、自駕車安全,無處不在的人工智慧正在重新定義我們如何做決策、如何分配資源,以及誰擁有權力。它不僅改變了組織內部的營運流程,也正在重塑社會信任、個人隱私與公平正義的邊界。
當AI影響範圍從個人到市場、從企業內部到公共政策,相關風險也不再只是技術失誤這麼單純。我們正在進入一個「由演算法決定」的時代,而企業要面對的,不只是內部合規或模型效能問題,更是關於「誰會被影響、誰能發聲、誰負責任」的全新治理挑戰。
當AI決策出錯,誰買單?
CMR文章指出,過去,企業的責任鏈條是明確的:從董事會到經理人層層分明。但AI讓這一切變得模糊。當銀行AI錯誤封鎖客戶帳戶、客服機器人傳遞錯誤資訊、或自駕車錯誤判斷行人動向,最後誰該負責?是資料科學家?產品經理?還是企業高層?
這樣的困境,正在迫使企業重新設計風險治理架構。許多公司開始採用「共享責任」模式,明確界定AI生命週期中不同階段的責任歸屬:資料清理、模型開發、風險測試、決策部署與用戶溝通等,分別由不同部門承擔。同時,像「解釋型AI」(Explainable AI)、AI倫理審查委員會、AI事故應急機制等,也逐漸成為企業AI風險管理的新常態。
以銀行業為例,金融機構的AI系統可能誤判客戶風險,導致大量帳戶被封鎖,信用評分受損,甚至影響到貸款申請與金融服務獲取。這類案例反映出,AI決策錯誤不只是技術層面問題,而是會直接衝擊消費者權益,甚至造成社會信任崩潰。企業若沒有在AI設計初期納入客戶與消費者觀點,很容易讓這類風險失控。
信任,不只是技術問題
MIT Sloan Management Review文章指出,即使企業強調自己遵守「責任AI」原則,卻仍可能因失去社會信任而陷入危機。以Clearview AI為例,該公司因未經用戶同意爬取社群網站上數十億張人臉照片進行AI訓練,被多國監管機構與社會大眾強烈譴責。雖然Clearview AI技術上可能符合某些地區法規,但「缺乏透明、忽視隱私、無社會授權」讓他們在全球多地陷入訴訟與公關災難。
Amazon曾推出一套AI招聘工具,但由於演算法根據過去的履歷資料偏好男性求職者,導致性別歧視風險,最終Amazon選擇停用該工具。Microsoft則因其AI語音助理與聊天機器人在沒有充分測試的情況下,出現種族歧視與不當言論,被迫公開道歉並暫停服務。
這類案例說明,AI風險管理不能只停留在法務部門的合規清單,更需要企業主動爭取「社會授權」(Social License),即使企業的AI應用符合所有現行法規,如果過程中忽視了公眾隱私、透明度、歧視風險等社會關切,仍有可能面臨用戶抵制、媒體輿論批評、政策反彈、甚至市場信任崩潰。
企業必須建立跨部門對話機制,與消費者、社群、政策制定者等外部利害關係人展開溝通,回應利益分配、隱私風險、偏見歧視等社會關注議題。信任的建立,不只靠技術解釋,而是整個組織治理邏輯的轉變。
為什麼AI風險評估必須納入利害關係人觀點?
要解決信任危機,企業不能只靠內部風控流程,更需要從風險評估源頭改變。這正是利害關係人視角在AI治理中的重要性。
所謂利害關係人評估,簡單說,就是在做決策或推行新技術前,主動了解、分析並納入所有「可能受影響的人或群體」的觀點。過去,企業的利害關係人分析對象,主要集中在員工、投資人、供應商、消費者、社區或政府等「傳統利害關係人」。很少有人把AI這類內部運算工具,當成需要進行社會層面風險評估的議題。
HBR文章指出,AI不再只是單純的技術流程,而是正在改變誰可以被服務、誰會被拒絕、誰的聲音能被聽見。如今,企業需要意識到:AI模型的設計、數據來源、參數設定,都可能影響不同群體的利益與權益,甚至成為新的社會風險來源。
以往AI風險評估常由技術部門主導,聚焦演算法準確率、資安風險、模型效能等內部指標。但這樣的技術視角,存在明顯盲點:
無法識別弱勢群體的受害風險(如歧視、排除)。
忽略用戶體驗、信任感與接受度。
缺乏對社會輿論、政策反彈、聲譽風險的預測能力。
將利害關係人觀點納入AI風險評估,有助於:
更早識別潛在的倫理與社會風險。
在設計階段就讓被影響群體有發聲空間。
提升AI決策過程的透明度、可解釋性與社會接受度。
符合歐盟AI法案、OECD AI原則等國際規範要求。
實務上,企業可以透過問卷調查、焦點座談、利益相關者對話、公開徵詢等方式,主動蒐集多元意見,並將這些反饋納入內外部AI模型設計、測試與部署流程。更進一步,建立長期、制度化的利害關係人管理機制,而不是一次性的事後補救措施。
AI未來:從風險控管到信任治理
AI越來越深入我們的生活,但我們準備好了嗎?
企業必須開始重新定義AI治理的角色與責任分工。未來的AI治理,不應只是技術人員的專業事務,也不該只是法遵部門的審核清單,而是一場橫跨技術、法務、行銷、社會責任部門的集體行動。
最重要的是,企業必須徹底改變永續評估的邏輯,把AI系統本身價值鏈納入利害關係人評估流程。這意味著,未來在評估企業決策對股東、員工、客戶、社區等不同群體的影響時,AI技術的設計、使用與潛在風險、受影響的價值鏈等,也必須被視為一項實質且不可忽視的影響因子。
這不只是內部流程調整,更是企業能否在社會中維持信任與合法性的關鍵。AI風險,不只是模型效能或技術錯誤的問題,更是關乎社會公平、權力分配與公眾信任的長期挑戰。企業若想在AI時代生存並贏得信任,需要讓「被影響的人」真正有機會被看見、被聽見、被考慮。
未來的AI,不只需要更強大的技術能力,更需要更透明、更負責、更具包容性的治理架構。


