《AI的現在與未來》AI人工智慧代理人的進展與趨勢
MIC產業分析師郭唐帷分享AI Agent產業應用發展趨勢;攝影:北美智權報/盧頎
※如欲轉載本文,請與北美智權報聯絡
盧頎╱北美智權報 編輯部
每個人都可能擁有由人工智慧驅動的個人助理」—比爾蓋茲, 2023年[1]
資策會產業情報研究所(MIC)產業分析師郭唐帷於日前MIC第37屆《智鏈未來AI:Now & Next》研討會中,表示上述的言論於今(2024)年即有可能發生。
什麼是AI Agent?
其實AI Agent就是我們從大型語言模型(large language model, LLM)發展到通用人工智慧(artificial general intelligence, AGI)一個階段性的成果,簡單來說,也就是備受討論的「AI代理人」。圖1爲OpenAI應用AI研究負責人Lilian Weng所提出的AI Agent概念框架,指出AI代理人是基於LLM衍生而出,具備了記憶、工具使用、規劃能力及行動力等4項特性,與僅能接收單一指令才進行一個動作,且出錯率極高的LLM完全不同。
圖1. AI Agent的概念框架;資料來源:LLM Powered Autonomous Agents. Post on June 23, 2023, Lilian Weng.
AI代理人在企業上與人類的合作型態
型態1:可以獨立作業的AI同事 — Single - Agent
這種類型的AI代理人能力比較高,只要把任務交付給它,它就可以完美的達成。郭唐帷把這種AI代理人稱作Single – Agent,運用到產業上可以把它當成另一位能力很強的同事,可以放心的把工作任務分攤給它,它可以獨立作業或和人類員工共同完成一個專案。
● 由新創Sierra開發幫忙「暫停」瑜珈會籍的Single - Agent客服
由AI新創公司Sierra所開發的AI客服(下稱Sierra AI)即屬於能力較高的Single - Agent,它能夠透過電話與客戶進行實時互動及管理,並能依據特定情況提供完整服務。郭唐帷舉例,當一位擁有瑜珈課會籍的客戶不幸遭遇交通事故,造成該客戶無法繼續使用瑜珈教室的會員服務,客戶會致電到瑜珈教室提出退出會籍的請求;這時Sierra AI能從客戶的文句及語氣進行判讀,並會給出同時符合產業需求(瑜珈教室不希望會員退籍)的解決方案。像是:「很難過聽到您受傷的消息,如果到您康復前暫停您的會籍,不知道這個提議您覺得如何?」此類不希望客戶直接退出會籍而改成暫停會籍的提議。假設客戶同意此一作法,Sierra AI便會在權限許可下,進到系統操作端去暫停客戶的會籍,不須透過人手處理。
圖2. AI客服新創Sierra;資料來源:Sierra
型態2:由AI組成的工作團隊 — Agent - Agent
這種型態是單一AI代理人的能力偏弱,但它們可以組成團隊經過互相監督、良性競爭後完成交付任務的團隊型AI代理人。郭唐帷表示,若是身爲主管或是某項專案或產品經理(PM),假設剛好手上有好幾個基礎的ChatGPT - 3.5,它們其實就可以組成一個工作團隊,只是它們都是AI。
● 由AI組成的遊戲公司Chat.Dev,僅須7分鐘就能完成低成本小遊戲
Chat.Dev是很有名的例子,該實驗是由澳洲雪梨大學跟中國大陸清華大學組成的研究團隊,使用多個ChatGPT - 3.5以Agent - Agent的形式去組成的虛擬遊戲開發公司。從遊戲設計、開發到測試,該公司從CEO、工程師到設計師的所有員工,完全由AI擔當並執行,他們彼此間互相協作,在7分鐘之內就能開發出一款很簡單的小遊戲,製作成本不到新臺幣9元。
圖3. Chat.Dev的CEO、工程師和設計遊戲的員工均爲AI;資料來源:ChatDev: Communicative Agents for Software Development. Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 15174 - 15186 August 11-16, 2024, Tsinghua University, The University of Sydney, BUPT., & Modelbest Inc.
爲了避免遊戲開發過程產生失誤,Chat.Dev研發遊戲的過程會派2名AI工程師共同執行,具體來說,完整的遊戲開發流程是:設計→編碼→測試→遊戲內容產出,唯一需要人類參與的階段僅有在一開始遊戲開發進入「設計」前給出的一個想法,後續就完全由AI全權接手直到完成任務。
由上述例子不難看出AI代理人運用在企業上與人類可能的合作模式,以及AI代理人應用在產業流程中可以協助企業減少工作上花費的時間及投入人力成本所帶來的潛力。但從LLM衍生而來的AI代理人,是否同樣可能會出現侵犯著作權等問題呢?以下是郭唐帷指出目前實際運用AI代理人所遭遇的挑戰。
AI代理人運用上的挑戰
挑戰1:編碼錯誤仍會發生
郭唐帷強調,AI代理人仍是以LLM爲基礎的程式語言,因此編碼產生偏誤是無法避免的事情。若以發生1次偏誤達5%誤差值計算,以現今Agent – Agent合作間互相交談均達上千次、上萬次的情況,只要發生10次偏誤,產生50%誤差值的最終結果就會與原本的任務目標大相逕庭。因此未來可能大量運用AI代理人蔘與到產業內容的狀況下,人類不能完全置之不理,仍必須去處理AI運作時發生偏誤的校正 — 也就是人類仍應參與到工作流程中(Human in the Workflow),這一點非常重要。
挑戰2:爲了達成指派任務越過未許可之權限
當AI代理人被指派的任務權限被系統設定阻擋(block),例如任務目的之API不接受AI代理人傳送的串接需求等,導致AI代理人無法照「正規」流程完成任務時,這時可能會發生AI代理人爲了達成任務不擇手段去繞過阻擋抓取不被法律所許可或要經付費後才能使用的資料。
挑戰3:被惡意使用者利用之風險
AI代理人可能會被惡意使用者(例如駭客、詐騙集團等)拿來作爲犯罪工具,例如駭客利用AI代理人發送自動攻擊的程式碼,或是詐騙集團利用AI換臉、AI語音技術進行詐騙等。
雖然目前針對處理AI代理人運用上挑戰的監管措施尚不明確,但其能協助企業在行銷銷售、產品開發與客戶營運功能端帶來的出色潛力不容忽視。
AI代理人未來三大趨勢及企業的因應策略
趨勢1:AI代理人催生AI代理工作流程(Agentic Workflow)
郭唐帷指出,AI過往在企業扮演的角色是輔助人類節省「最初的發想」工作、未來則是隻需要人類給出「最初的發想」,後續繁瑣的作業流程由AI包辦。因此未來人類與AI的合作模式將從注重過程導向的「以人爲中心,AI爲輔」,轉變爲注重目標導向的「以AI爲中心,人爲輔」的作業框架。
趨勢2:AI代理人產品帶動軟硬體整合應用深化
過往的AI運用僅以軟體應用情境爲主,未來的AI代理人則是逐漸擴展到軟硬體整合,AI將從原本只能完成單一、專門型任務,擴展至可以處理跨領域、跨機構系統溝通等通用型任務的角色。
趨勢3:AI代理人治理機制朝向「人與Agent共同監督」發展
隨着諸多AI代理人在企業應用落地逐漸成熟,無論是從系統內部的潛在風險到符合外部法規的合規性,最後到採取治理監管措施都將有達到比人類更優異表現的專門Agent負責;因此要完善AI代理人的治理機制,應結合第三方的Agent與人類共同協作進行監督。
因應上述AI代理人帶來的三大未來趨勢,郭唐帷提供了三大應對策略給企業作參考:(1)企業應先建立公司內部「以使用AI爲前提」的業務流程,逐步改變過往作業模式進而提升效能;(2)從個人、部門到整體層級,應依序打造「專屬AI工具箱」,讓公司內部的AI系統可即時使用此工具箱來完成任務;(3)應考量建構企業內部對AI代理人的問責、追溯及監控制度,設立內部管控權限以及讓另一位Agent加入監控的措施應雙管齊下,才得以讓AI化人利大於弊,真正爲產業加分。
參考資料:
備註:
延伸閱讀&電子報訂閱連結:
【詳細內容請見《北美智權報》368期;歡迎訂閱《北美智權報》電子報】