資策會今發佈「AI軟體開發指引」 6大面向建立企業有責操作
爲協助企業利用生成式AI軟體開發效率,同時降低錯誤與保護隱私,資策會軟體院今發佈「生成式AI軟體開發指引」。(示意圖/shutterstock)
生成式AI引發全球巨大創新熱潮,資策會軟體技術研究院(軟體院)今發表「生成式AI軟體開發指引」,提出問責性、透明度六大關鍵面向,要協助企業可負責任地開發和部署AIGC(生成式AI),在提高軟體開發效率外,也能確保來源可靠度與安全性。
據Expert.ai調查,78%企業意識到訓練專用GPT是重大工程,Build Your Own GPT(BYOG)成爲企業面臨的全新挑戰。軟體院今(2)日特舉辦軟體院科技日「1st STI TECH DAY」,以「前瞻趨勢與新興生態佈局」爲題,聚集產學研專家共同探討產業趨勢與新興生態發展。
會上繼8月份推出「企業生成式AI導入指引」後,再發布第二份「生成式AI輔助之軟體開發指引」,其涵蓋六大關鍵面向,包括問責性、系統透明度、AI生成項目、資料治理、系統公平性、系統可靠度,從各面向協助發展建立負責任的軟體開發機制。
2023年初,Google測試ChatGPT之程式撰寫能力已達到三級工程師(初階工程師)的水準,以生成式AI方式開發軟體,爲企業帶來效益的同時,亦衍生一些新的風險問題及治理挑戰。企業應當如何建立負責任的軟體開發機制,是現今軟體開發至關重要議題。
資策會軟體院表示,該指引要提供投入生成式AI的軟體開發者,掌握生成式AI軟體開發作法,及可能遇到的問題與解決方案,建立負責任軟體開發機制所需步驟、制定原則、可操作的規範等,來確保企業負責任地開發和部署AIGC,提高軟體開發效率。
在增進效率同時,生成式AI模型可能產生不完整或不正確的程式碼,需要開發人員進一步修正和調整。此外也可能存在隱私風險和潛在的安全問題,例如:生成不安全的程式碼或違反隱私保護的內容。
因此該軟體指引也要引導開發人員,謹慎評估和監控模型的性能和結果,建立負責任的開發機制,確保生成的項目符合需求並且安全可靠。