用好AI,邊界是關鍵
一篇7000字的結課報告,一個大三學生在AI的輔助下,僅用一週便完成了,比以往至少省去了一半的時間。
隨着ChatGPT向公衆開放,擁抱AI成爲趨勢,也帶來了用與不用、用在哪裡以及用多用少等爭議。
在AI的輔助下,不少研究人員、高校學生開始習慣用各類大模型來協助他們完成論文潤色、編寫分析數據代碼和製圖。
但也正是因爲AI滲透度提高,老師們擔心學生的原創能力被削弱。同樣在其他行業,AI輔助也面臨着生產效率和相似度“雙升”的矛盾。
邊界問題不得不談。
以復旦大學爲代表,國內多所高校開始探索AI技術的應用規範。比如,對AI在本科畢業論文的使用,明確提出“六個禁止”。
至少,有了規範就能讓學生心中有數,用好用對AI。在具體實操中,知道哪些具體環節是不被允許的、哪些不當應用屬於學術不端、哪些環節需要標註使用情況等。
2024年被稱爲人工智能應用元年。人與AI的關係,在社交、遊戲、教育和內容創作等多個場景,因爲使用變得越來越緊密。
回顧ChatGPT問世兩年,關於AI的技術革新和使用倫理的思考也逐步深入,AI應用的商業化步入人們的視野,資本對新賽道的生產力增長虎視眈眈。
AI藉由算法生成的文字、圖片甚至影像,其質量之高,越來越接近或者滿足了人的預期,大家不約而同地意識到,“一刀切”禁止並不現實。
和大學生一樣,很多打工人將AI工具作爲工作學習的小助手,使其代勞一些前期準備和重複性工作,其實很正常。
不過,如果把AI當成是“槍手”“工具人”,自己退居幕後讓AI全權代勞,對結果不負責任,任由其複製粘貼、隨意拼湊,就逾越了合理邊界。
AI時代,不會使用AI,其獲取信息的效率、掌握知識的能力、運用新工具的技能都會減弱,而過度依賴AI,不僅會導致原創能力下降,還會在未來的職業發展中面臨挑戰。
和教育一樣,很多行業都將面對人與人工智能深度合作,進入人機協同創作時代。
一邊是驚喜不斷,節省時間、提高效率、革新傳統生產模式,另一邊是矛盾重重,就業焦慮、創造力缺失、過度自動化……
在驚喜和矛盾之間,對於人機協同分工、方法的探索、邊界的釐清都迫在眉睫。
規範邊界,不斷地找到卡尺和準繩,才能在具體的持續實踐中形成與AI的良性互動。
當下,如何突破AIGC內容中人工智能單一、機械的“類人”身份與邊界範式,讓人工智能以“非人類”的智能與人類產生深度協作,成爲與AI共存、讓AI科學地爲我所用的重要課題。
北京商報評論員 陶鳳