AI代理浪潮:身份安全新挑戰不容忽視

人工智能(AI)浪潮席卷全球,不少企業雖已積極推動AI應用,但安全部署依然滯後。根據最新身份安全形勢報告》,88%受訪港企承認使用AI大型語言模型,會因涉及存取敏感資料而構成潛在網絡風險,67%尚未針對AI和大型語言模型採取身份安全管理,更有46%企業無法有效管控影子AI的安全性。

隨著AI代理迅速融入企業環境,資訊安全團隊正面臨似曾相識的挑戰。數年前,不少企業快速採用機器流程自動化(Robotic Process Automation;RPA)技術,導致資訊安全團隊來不及應對,未能及時建立有效的身份驗證及監察機制。當業務團隊主導部署時,資訊安全部門往往被動跟上,缺乏足夠的掌握和管理。

現時不少RPA解決方案的運作方式仍有隱憂,包括多個機器人共用同一組憑證或密碼 (Shared Credentials),或被設定為特定員工「替身」身份執行工作。這一做法存在重大安全風險,一旦多個機器人使用相同身份,問題發生時便難以追蹤和防範。此外,企業如建立重複憑證,亦會進一步擴大憑證遭濫用的風險,讓不法分子更容易有機可乘,入侵企業核心系統。而企業推動部署 AI 的積極程度甚至超越RPA,但許多資訊安全團隊仍然未做好準備。

AI代理成第三類身份

與一般的自動化機器人不同,AI代理具備自主運作能力,能夠自行決策,存取敏感數據、執行交易等,而且幾乎不需人為監督。這使他們成為人類與傳統機器身份以外,真正的第三類身份,因此企業必須為其建立專屬的身份架構進行管理。

AI代理充分體現機器身份和人類身份之間模糊的界線,企業必須確保其安全運作。AI代理由員工委派執行工作並採取自主行動,過程中可能需要使用一個或多個員工或合作夥伴身份,涵蓋機器和人類身份。而每個AI代理都需要一個獨特且通用的工作負載(Workload)身份並執行委派的操作。

為甚麼AI代理需要獨特身份?

RPA 機器人不同,AI代理不僅會與應用程式互動,還會與其他AI代理互動。無論互動時間長短,每個代理都需要在其整個生命週期內進行身份驗證、授權和監管。如果企業缺乏適當的安全和身份架構,便難以落實有效的管理機制,當中包括AI代理的緊急終止機制(Kill Switch),而相關機制僅在AI代理擁有強大且獨特身份的情況下方可實現。因此,企業必須為AI代理落實全面的安全機制,而網絡安全的基石便是身份安全。

新興的安全標準,如 SPIFFE(Secure Production Identity Framework for Everyone)在工作負載身份識別方面已見成效,亦適用於 AI 代理,以建立合適的身份驗證與授權機制。這類標準能提供跨環境、應用程式、雲端的通用身份,必要時更可搭配現行的身份驗證方法,例如由機密管理工具保護的 API 金鑰(API Key)與存取權杖(Access Token)。部署這些安全標準後,每個代理便能在最小必要權限運作,進而避免 RPA 部署時常見的憑證共用與身份冒充問題。

安全標準下的五大AI自主代理核心管理要點:

零常設特權(Zero Standing Privileges):AI代理不應持有任何永久存取權限,而應根據具體項目,在需要時獲得即時且足夠的授權。

持續監控(Continuous Monitoring):AI代理具備自主運作能力,需要在交易與工作階段期間持續監控。

進階驗證(Step-up Challenges):如人類工作一般,AI代理在執行敏感操作時,應進行額外的身份驗證程序。

行為分析(Behavioral Analytics):若要偵測異常行為,首先需了解AI代理的正常行為模式作為基準。

緊急終止機制(Kill Switch):如需將業務營運委託於AI代理,須具備在必要時立即停止其行為的機制。AI的「緊急終止機制」必須依賴身份識別啟動。只要每個AI代理都有獨特身份,便能即時中斷出現行為異常的AI代理。

付諸行動刻不容緩

相比過去的 RPA浪潮,企業現時應主動和充分掌握部署AI代理安全策略的主導權,而非事後補救。問題不再是AI代理是否會普及,而是面對AI代理日漸普及,屆時企業是否已做好充分準備,應對挑戰,以保護企業自身,發掘更多機遇。