攻擊模擬器:洞見人工智能圖像識別破綻及對策

據一項新研究顯示,人工智能能夠幫助人們精確地處理和理解大量數據,但內置於人工智能的現代圖像識別平臺和計算機視覺模型常常忽略一個名爲阿爾法通道的重要後端特徵,該特徵控制着圖像的透明度。

德克薩斯大學聖安東尼奧分校(UTSA)的研究人員開發出一種名爲 AlphaDog 的專有攻擊手段,來研究黑客怎樣利用這一疏忽。他們的研究成果由 UTSA 電氣與計算機工程系的助理教授 Guenevere Chen 以及她的前博士生 Qi Xia '24 撰寫,並在2025 年網絡和分佈式系統安全研討會上發表。

在論文裡,UTSA 的研究人員闡述了技術差距,還提供了減輕這類網絡威脅的建議。

“一個是人類受害者,另一個是人工智能,”Chen 解釋道。

爲了評估漏洞,研究人員通過開發 AlphaDog 確定並實施了針對圖像的阿爾法通道攻擊。該攻擊模擬器致使人類所看到的圖像與機器看到的不同。它是通過操縱圖像的透明度來發揮作用的。

研究人員生成了 6500 個 AlphaDog 攻擊的圖像,並在 100 個 AI 模型中對它們進行了測試,包括 80 個開源系統以及 20 個諸如 ChatGPT 這樣基於雲的 AI 平臺。

他們發現 AlphaDog 善於針對圖像中的灰度區域,使得攻擊者能夠破壞純灰度圖像以及包含灰度區域的彩色圖像的完整性。

研究人員在各種日常場景中測試了圖像。

他們發現人工智能存在的不足對道路安全構成重大風險。例如,使用 AlphaDog,他們可以操縱道路標誌的灰度元素,這或許會誤導自動駕駛車輛。

同樣,他們發現他們可以改變像 X 光、核磁共振成像和 CT 掃描這樣的灰度圖像,這可能會造成嚴重威脅,進而可能導致遠程醫療和醫學成像領域的誤診。這也可能危及患者安全,並且爲欺詐行爲敞開大門,比如通過把顯示正常腿部的 X 光結果改成骨折來操縱保險索賠。

他們還找到了一種更改人物圖像的辦法。

通過針對阿爾法通道,UTSA 的研究人員得以破壞面部識別系統。

AlphaDog 是通過利用人工智能和人類處理圖像透明度的差異來運作的。

計算機視覺模型通常會處理紅、綠、藍和阿爾法(RGBA)圖像——這些值用於定義顏色的不透明度。

阿爾法通道能表明每個像素的不透明度,還能允許圖像與背景圖像組合,從而生成具有透明外觀的合成圖像。

然而,在使用 AlphaDog 時,研究人員發現他們所測試的人工智能模型並非讀取全部四個 RGBA 通道;相反,它們只是從 RGB 通道讀取數據。

“人工智能是由人類創造的,編寫代碼的人關注了 RGB ,卻遺漏了阿爾法通道。換句話說,他們爲人工智能模型編寫的代碼在讀取圖像文件時未考慮阿爾法通道,”陳說。“這就是漏洞。在這些平臺中,阿爾法通道的缺失導致了數據中毒。”

她補充道,“人工智能很重要。它正在改變我們的世界,我們有很多擔憂。”

陳和夏正在與包括谷歌、亞馬遜和微軟在內的幾個關鍵利益相關者合作,以減輕 AlphaDog 破壞系統能力這一漏洞帶來的影響。