產業追蹤/全球AI監管 考驗企業應變力

AI技術發展與應用正快速改變生活與工作方式,也引發一系列社會、倫理和安全挑戰,尤其是AI系統在決策過程中可能出現偏見和歧視,造成個人權利和社會公正的問題。例如AI在招聘、信貸審批、醫療、司法等應用所涉及的不平等與道德問題。

在關鍵基礎設施和重要行業應用中,AI系統需要處理大量個人和敏感資料,資料安全和隱私保護問題變日益突出。如何保護資料免遭未經授權的訪問和濫用,成爲迫切需要解決的問題。建立相應法律法規框架以指導AI的開發和應用,已成爲國際關注的焦點。

各國對AI的監管作法不一,例如歐盟和美國是兩大前鋒,都致力建立安全、可靠的AI發展環境,但在監管方法和重點上存在差異。歐盟的監管方式以規範爲基礎,強調以法律和規範指導AI發展,突顯對保護個人隱私、資料安全和基本人權的重視。2021年提出AI法案,包括對高風險AI系統的嚴格要求,如用於公共監控、評分系統等領域的AI技術,需嚴格評估和透明度揭露,也涵蓋低風險AI的輕度規範等。

美國則採較寬鬆和市場導向的方式,逐步加強對AI技術關注與監管,如2023年美國總統拜登行政命令全面性的規劃監管藍圖,並推動聯邦層面的執行作法。美國的AI監管策略依賴市場驅動和自我調節機制,鼓勵企業和行業組織制定規範和標準,透過政府的指導性文件和政策推薦來影響AI技術發展方向。美國的策略方向,反映對創新自由的重視,以及對過度規範可能抑制技術創新和經濟發展的擔憂。美國在特定領域,如無人駕駛車和醫療等,也有針對性的監管措施,透過現有的行業監管機構和法律框架來實施,而不是創建新規則。

未來臺灣企業在進入這些市場時,要充分了解和遵守當地法規,還要根據不同的監管要求,調整自己的產品和服務,以確保順利進入並在市場中持續發展。

對企業來說,應對AI監管的需求不僅是法律和合規的挑戰,更是戰略上的機遇。嚴格監管要求雖然短期內可能會增加企業運營成本和壓力;但長遠來看,符合監管要求的企業更容易獲得市場的認可和偏好。

AI技術可應用於企業內部人力評估、管理的使用情境,在AI監管討論中,相關的基本人權保護是歐美重視的風險議題,企業須防止對員工做出歧視評價。

而使用生物特徵相關AI應用廣泛,也成爲AI產品服務的藍海市場,但容易衍生隱私問題。歐盟對涉及情緒識別和遠程生物特徵識別的系統表示擔憂,認爲應被列爲高風險或不可接受風險。

隱私和資料安全是AI監管重要議題,在新技術應用情境中,資料安全有了新的破口,企業須在收集、儲存、處理和傳輸資料等環節建立嚴格的資料管理體系,同時規劃以符合法律法規爲目的記錄保存機制,纔能有效降低監管成本。

AI系統評測除確保資安防護品質,也須評估受測產品是否符合道德價值,避免包含偏見、歧視。但受測產品應用領域繁多,企業外部檢測團隊難以判斷是否符合該領域道德需求,例如OpenAI的AI紅隊,成員不僅是資安專業,更包括各種領域專家以完成評測。因此需要企業內部對其產品的評測需求有一定的認知,才能與外部專業評測團隊共同產生完整且有效的評測結果。

企業在應對全球AI監管挑戰時,需從策略、管理、技術和溝通等多個維度全面準備。積極瞭解業務市場監控趨勢,並透過實施有效的風險管理措施、強化資料保護、建立自身AI產品評測認知等作法。企業才能避免潛在的法律風險,還能在全球市場保持競爭力。(作者是資策會MIC資深產業分析師)

【未經MIC許可,不得轉載與作其他用途使用】

延伸閱讀