商湯積極設計倫理觀系統 AI發展重視人工智能治理

人工智能(AI)迅速發展,深刻地改變人類社會生活、改變世界。為促進新一代人工智能健康發展,世界各地正加強人工智能法律、倫理、社會問題研究,積極推動人工智能全球治理。今年以來,新加坡、歐盟、美國、中國等國家的監管機構和第三方機構紛紛發布人工智能治理測試工具箱、技術監管沙箱,推進人工智能治理的落地實施。

作為人工智能軟件公司,商湯一直高度重視人工智能治理。繼去年正式提出了「平衡發展」的人工智能倫理觀,推動「以人為本、技術可控、可持續發展」的倫理原則後,商湯在最新發布的《「平衡發展」的人工智能治理白皮書——商湯人工智能倫理與治理年度報告(2022年)》中,更提出了發展「負責任且可評估」的人工智能的重要性。

根據報告,當前人工智能治理已經進入了以技術驗證為主的落地實踐階段, 而實現人工智能治理可分為可用、可靠、可控、可信四個層次。「可用」是指人工智能系統在功能、性能層面應當能夠滿足應用場景需求;「可靠」是指人工智能系統在安全性、魯棒性(Robustness)層面應當能夠滿足部署環境和可持續營運要求;「可控」是指人工智能系統在功能層面應當能夠充分保護人類的自主意志和權利、保障人類對系統的控制權;「可信」是指人工智能系統的設計和應用應當符合人類的價值理念和倫理道德。 因此,人工智能治理體系建構的目標,就是發展負責任的人工智能,需要做到有跡可循、有據可查。

推動發展「負責任且可評估」的人工智能

以商湯為例,除了將倫理原則嵌入到產品設計、開發、部署的全生命周期外,為保障人工智能治理體系的有效落實、推動形成倫理治理「人人有責」的企業文化,還建立了倫理風險目標管理機制、倫理風險事件處置機制和倫理治理質量控制機制。此外,為推動發展「負責任且可評估」的人工智能,商湯還在內部開發了一系列覆蓋數據治理、算法測評、模型體檢、倫理審查的流程工具和技術平台。

隨著人工智能逐漸深入產業應用,AI的發展與治理之間的關係正如汽車的「發動機」和「方向盤」一樣,相輔相成、缺一不可。AI業界應該攜手持續推動發展負責任且可評估的人工智能,為AI治理實踐不斷貢獻完善、可行的落地方案。