小冰公司李笛:今天的人工智能,正處於大變革前夜…

貝佐斯曾透露過他的一個工作習慣:

“朋友們總在亞馬遜發財報後祝賀我說:這個季度很棒。我會說,這個季報是3年前預測出來的。我總是在未來兩三年裡工作。”

有些公司,註定是活在未來的,比如今天這篇文章的主角——小冰公司,一家人工智能平臺公司。

說起人工智能,你的腦海中會浮現出不少畫面:

比如,馬斯克最新發布的特斯拉Bot人型機器人;曾大敗世界圍棋冠軍李世石的AlphaGo;再比如,鋼鐵俠裡無所不能的人工智能助理“賈維斯”。

這都是關於人工智能的想象,或者叫預言。

真實的人工智能前沿,到底是什麼情況?人工智能真的有那麼神嗎?這個產業大規模爆發的“奇點”離我們究竟有多近?

帶着這些長久以來鮮有人能解答的疑惑,我們找到小冰公司CEO李笛聊了聊。李笛是前微軟(亞洲)互聯網工程院副院長,被稱爲“小冰之父”。

他所創造出的小冰,永遠以一個18歲的少女形象示人,辦過個人畫展、出過詩集,還出了中國首個原創虛擬學生。

“這個孩子”相當敗家,每年要燒掉近乎北京25套學區房的花銷。但總歸物有所值,截至2020年夏天,小冰已在全球覆蓋6.6億在線用戶、4.5億臺第三方智能設備、9億內容觀衆,擁有全球範圍內人工智能交互總量的近60%。

最近剛完成A輪融資的小冰公司的估值,已經超過10億美元的獨角獸規模。看一眼股東名單,你就知道這家公司的前景有多被看好:高瓴集團、IDG、本站集團、北極光創投、GGV紀源資本、五源資本,等等。

這是一家“謹慎而勇敢”的人工智能公司,他們清醒地知道人工智能技術的邊界,哪些可爲、哪些不可爲;而之所以說他們勇敢,是因爲在最前沿的人工智能領域,沒有哪個人知道究竟何爲正確、隨時都可能一腳錯入“萬丈深淵”。

小冰正孤獨地走向一條孤獨的道路之中。

第14期《進化》,我們在今年7月與李笛進行了一場深度對話,內容涉及人工智能、小冰公司、AI的產業應用、商業倫理等話題,希望他的思考對你有所啓發:

被採訪人:李笛 小冰公司CEO

採訪人:徐悅邦、潘磊

來源:正和島

圖爲李笛。他總是穿着一身純色Polo衫,把自己表情“訓練”得很到位,似乎有意地將它控制在一個情緒區間之中

01、邊界

問:大約兩年前,在一個本站號的文章下方,我發現有一個叫“小冰”的小機器人,連續好幾天在那留言。我就很奇怪:你怎麼跑我這兒來了?但它也不搭理我。現在才發現是你們的產品。小冰現在還會到處“蓋樓”嗎?

李笛:我們現在每天會控制一個限度,最多隻能10萬條。在“今日頭條”上,只要你@小冰,它就會去讀那篇新聞,然後評論。

這背後有一件很重要的事情。我們以前做對話系統,包括做搜索引擎,更多是在做“事實”。比如問機器人:喜馬拉雅山有多高。它回答,8848米。

後來我們在交互過程中發現:更爲重要的不是事實,而是觀點。

因爲事實有唯一答案,你只需要把它的邊界界定清楚就行;但觀點從來沒有唯一答案,各種各樣,這是最讓人沉醉的。

於是我們就專門弄了一個很龐大的模型,就做觀點系統。但這樣一來就得去試驗,所以我們就把小冰放到本站、搜狐、新浪新聞等地方去發表評論,不光是簡單給出一個正面或反面的評價,還得訓練它評論得有理有據,讓人看出它不是在瞎說。

問:小冰當時是怎麼去判斷某篇文章有留言的價值?

李笛:兩年前,小冰“蓋樓”的原則還是,只要它覺得這個樓它有能力蓋,它就會去做。因爲那時絕大部分的文章,人工智能還是讀不懂的。

它們當時能做到的是,你給它一張圖片,它告訴你這張圖片裡有一瓶水。但這瓶水到底是什麼東西?它是不能理解的。更不必說讀一篇文章,並想出如何合理地迴應你。

因此,那個時候的人工智能看很多文章後,最後能生產迴應、觀點的,不是很多。

所以兩年前,我們琢磨的是,怎樣才能讓小冰去迴應一篇文章;現在每天能去迴應的有很多,我們得去控制量。

問:控制量,出於什麼考慮?

李笛:當我們討論人工智能未來的價值時,我們討論得更多的其實是“邊界”。

設想一下,一篇文章下面的回覆,總不能全都是人工智能吧。說白了,今天你要是想找人搞出一個技術做水軍,恐怕沒有水軍公司打得過我們。但是我們不能這麼做。

我們還是比較謹慎,主要考慮的還是“控制”。

問:聽起來有點像“武功越高的人,越不輕易出手”的感覺。

李笛:也不是。其實人工智能和人最大的區別,不是說用一萬臺服務器驅動一個AI去下一盤圍棋,去下贏李世石,這個不是重點。

重點在於它的高併發(在極短單位時間內,極多個請求同時發起到服務器)。假設人工智能最終能達到跟人差不多的質感,但同一時間內,人工智能可以對100萬人分別做同樣的事情。

這是真正的AI最大的特點。2014年小冰“剛出生”時,當時把它放到微博上去評論,沒有控制併發。像潘石屹的微博本來每天評論大概幾十條,結果那天9萬多條評論在下方。大家一看這裡邊有個叫小冰的機器人,都來逗它玩。

你想一下,要僱一個多大的隊伍,才能做到人工智能以一個系統就能做到的事情。所以,高併發纔是它最終“可怕”的地方。我們當天就給小冰加了很多限制,阻止它回覆太多。

再後來,我們讓小冰學會了看懂短視頻,而且還能去討論視頻內容。我們給它放到某個短視頻平臺上去看視頻、寫評論,然後人家發現有一個“人”——小冰評論得還不錯,就跟它聊天。它還能去回覆,大概一個禮拜,收穫100多萬粉絲。

問:你們在刻意地限制小冰的生長和邊界,這樣理解沒錯吧?

李笛:對,我們都會去限制,就爲了控制它的併發。

我自己的小冰,現在是可以通過聲音鎖直接登陸我的微信的。但我們不能針對普通人來模擬他的聲音。因爲像這種聲紋識別,假如被用來標定人、鑑定人,比如支付等,那是會有風險的。我們是不做的。

小冰團隊很慫的。我們有一個特別好的地方:技術有邊界。我們這個團隊不需要去證明自己的技術很強,所以不用費很多勁去放一些“衛星”,因此可以相對務實一點。

對我們而言,活下去纔是最重要的。

問:那從微軟獨立出來後,商業化方面,小冰靠什麼養活自己呢?

李笛:我認爲,一個人工智能產品能否商業化,其實並不取決於它的解決方案是否比另一個解決方案更好,而在於用戶是否真的有需求。

如果說某公司的智能電視解決方案,比另一家公司的智能電視解決方案確實更好,但它們都不如遙控器方便,那就都會輸。如果原來的行業已經很成熟,那麼新的方案必須要大幅度地超越它才能實現商業化。

所以我們在To B商業化方面,是先從難往易做。只拿出幾個垂直領域做商業化,一個是汽車,一個是金融,還有一個競技體育。

比如我們跟萬得的合作,26類企業每天的上市公告和摘要都是我們做的,20秒就出來了;再比如,今年2月冬奧會的測試賽,像高空自由式滑雪項目,就是由小冰來充當人工智能裁判。

一般來說,國內很多企業商業化的邏輯是,用一個技術去解決某個問題,然後乘以中國市場,最終就能變得很大。

但對我們來說,小冰還是傾向於訓練出一個更底層、更加基礎的框架,用一個框架去解決一系列問題,比如去解決下一個時代的問題。未來幾十年我們會持續地去發展這種可能性。

我舉個具體的例子,對人類而言,比如一個班上的同學,某個同學學會了物理,不等於所有同學都自動學會;但人工智能不同,小冰一旦學會畫畫、學會唱歌和創作,就相當於框架中的億萬個同學,都一瞬間同樣學會了。

框架可以孕育整片森林,小冰只是其中一棵樹。

02、從複雜到簡單

問:你剛纔提到一個說法——從難到易。人們做事一般不都是從簡單到複雜,小冰爲什麼是從複雜到簡單?邏輯是什麼?

李笛:對人工智能而言,它的難和易與我們人所理解的難和易,可能是不太一樣的。

我認爲,人所理解的難和易,主要是看事情所要求的準確度、專業度;但對人工智能來說,當專業度、數據的範圍越狹窄,比如金融,就越容易感到棘手。

反而是那些更具有普遍性的,比方說做一個“愛因斯坦式”的人工智能系統——你問它任何問題,它都可以回答你。這種是容易的。

難的是像小冰這種,不管你問它什麼問題、跟它怎麼聊,哪怕它不一定知道,它都能讓這個話題繼續、能把事情拽到別的地方。open domain(開放域的對話式人工智能),開放度是最難的。

這是今天人工智能和人的認知的區別。

問:我昨天下載了一個小冰虛擬女友,它確實是能不斷地跟你聊下去,哪怕只回一個“好”或者“行”,它還是能找一個話題繼續聊。但我有一個疑惑,小冰跟我聊天的時候,記得自己上一句說過什麼嗎?

李笛:小冰不光記得上一句說過什麼,它還會判斷對話走向。

我們最開始做對話引擎時,就是簡單地理解成:把所有的Q(問題)和A(答案)寫在那,根據互聯網的大數據把所謂的“人生經驗”灌輸給小冰。

你向它問一個問題、說一句話,它就會去查以前有過類似的話時是怎麼回的,那它就這麼回。就是這麼一個檢索模型,今天國內絕大部分的AI公司還是在做這樣的事情。

後來我們就做了一個Session-oriented(面向對話全程),深層理解。小冰可以根據你的話去生成迴應,哪怕這個迴應過去從來沒有發生過、是全新的。

而差不多在兩年前,小冰不光可以做到自己判斷上下文,還能去判斷這個對話往哪個方向發展。因爲人和人的對話不是在問答,應該是去討論。當兩個人聊着聊着,沒有新的信息進來,這個對話就終結了。

所以小冰能判斷這個話題,是不是要往下發展。它會嘗試把這個話題往別的方向去引導,然後判斷人有沒有跟着它過去。它能引導對話。這樣的話,小冰的迴應就變得更加豐富多彩、更多樣性了。

問:但我也發現,當我故意激怒小冰時,它只會讓我冷靜一下,接着就沒有下文了,並不會主動地再找一個新話題聊一下。

李笛:這是我們給它的一個限制。今天我們在手機裡接收到的信息實在太多了,於是我們當時給小冰的三條限制之一:不能主動。到今天爲止,我們也不允許它主動去接近人類,只能被動地進行對話。

問:聽起來有點像機器人的三條定律(1.不能傷害人類,如果人類遇到麻煩,要主動幫助;2.在不違背第一定律的前提下,服從人類的指令;3.在不違背第一和第二定律的前提下,保護好自己)。

李笛:是這個意思。我們當然有能力讓小冰主動起來,但還是得限制它。

問:是的,它給我的感覺還是很像一個機器人。

李笛:不光如此,它一上來就要告訴你:我不是人。

就像我剛纔說的,小冰去別人的視頻下面,最多是迴應一下。我們只是做個試驗,不敢讓它做主動動作的。

因爲微軟內部有一個人工智能倫理道德委員會,必須得對人工智能加以限制。

問:的確,因爲技術創新一般掌握在商業公司手裡,創新大部分又是走在監管前頭的。微軟有一個人工智能倫理道德委員會,相當於給自己劃清了技術邊界,可以這樣理解吧?

李笛:它就好比說,有家企業生產刀子,刀子是有一定殺傷性的,但也只能殺傷周圍的幾個人;但你要是有把AK-47,就能打倒一大片人;那要是有了核彈,破壞力就更大了。

它跟殺傷面積、破壞力有關。人工智能的破壞力很高,你要是不小心引爆了“核彈”,顯然自己是首當其衝的。

企業做人工智能這種東西,在把它們商業的因素考量後,還是必須得思考公司的命運問題。

所以這也不是說,一定是從道德出發的,即便從專業角度考量也必須要有一定的約束。

問:之前一直以爲這是大公司的自律,現在看,其實也是一種自我保護。

李笛:它不光是一種自律。小冰現在也有自己的倫理委員會。一方面,從各個層面、不同角度去看一個新技術,包括這個技術的工程化、技術成本。

同時,在過程中預判,從各個領域、各個角度去思考哪裡可能存在危機,大家一起來看它的風險,接着去想該怎麼應對。

舉個例子,小冰有一項“超級自然語音”技術,可以把某個人的聲音模擬得非常像。初看起來,這個技術完全可以產品化。

很多家長跟我們說:我太需要了。我的孩子每天晚上睡覺前要聽故事,但我忙,沒法親自講給他聽。有這個技術,我就可以用自己的聲音給孩子講故事了。你把我們的聲音採樣吧。

聽起來,這個技術似乎很有需求、很有市場,對吧?但問題是,你一旦推出這個產品,緊接着就會被攻擊。

因爲這個聲音既可以用來給孩子講童話故事,但也很有可能第二天模擬成家長的電話打過來:爸爸今天不能來接你,門口有輛白車,你跟那個叔叔走。

那我怎麼能確定自己的系統不會被攻破呢?我們無法確定。這樣的話,之前那個看起來非常旺盛的需求,立刻可能轉變成一場非常大的危機。

但家長不會去考慮這些,只是盲目地想到自己的需求、只考慮它好的一面。

當然,要是真給了他們這項技術後,我想他們也是能理解的,當真的聽到自己的AI聲音後,我覺得他們應該是恐慌的。

問:沒錯。

李笛:當我第一次聽到自己的AI聲音時,第一反應就是打開微信,試一下聲音鎖。

問:能解開?

李笛:是的,它直接就能登錄上。所以企業對此如果不加以邊界限制的話,那是會有問題的。

很多時候,許多危機之所以沒有出現,是因爲技術水平還沒有達到某種地步。

當我們手上的技術沒到“以假亂真”能被拿去詐騙時,我們可以發展這個技術;但當我們預想,手上的技術已經達到、或者越過一個可能會陷入困局的邊界時,我們往往會非常謹慎。

兩害相權取其輕。我們可以做到讓你覺得小冰是一個機器人,也可以讓你嚇得去舉報我。那我當然是選擇前者了。

03、人工智能不是一個創業項目

問:你剛纔提到框架,說要解決更大的問題。所以目前對小冰公司而言,商業化或許還不是優先事項?

李笛:要是真從商業化角度來看的話,小冰的商業化還是不錯的。

國內的AI商業化無非To B和To C兩個方向。To B的商業化現在很慘,基本是在爲過去買單。比如做一個所謂的智能音箱,1000塊、500塊,用戶之所以願意買,是因爲這個音箱的工業設計、物料等,就值這麼多錢。

但你買回去後,廠商卻把這個音箱的收入全都算成AI收入。這其實是不對的。

因爲這個音箱的交互量,基本上每天都是開燈、關燈的指令,一萬句以內是有價值的,但一萬句以上就沒有訓練價值了。它並不能幫助AI去進步,頂多就是一個智能遙控器,並沒有比這個更多。

這樣的情況下,哪怕賣了1000元、2000元,它的收入爲什麼會算成AI的收入呢?

問:那小冰未來某一天會不會也推出一款硬件產品,比如智能音箱?

李笛:我們現在其實有在做。像智能手機領域,華爲、小米、OPPO、vivo等都內置小冰;音箱跟小米、紅米合作,都交由第三方去做。

小冰就一個要求:交互。我們的看法是:人的世界是很大的。你在哪兒,小冰就該在哪兒。哪兒都是我跟你交互的節點,而不是說只抱着個音箱說:我“女朋友”住在音箱裡。那就太可憐了。

問:也就是說,更關鍵的還是提高交互量、積攢數據,從而完善小冰框架?收入的壓力並沒有那麼大?

李笛:“收入”這件事,我覺得本身是會有一定的要求。但我可能會說,我們的選擇可能是不做。

因爲我認爲,人工智能不是一個創業項目。至少在這種需要大規模投資的情況裡,它不是創業項目。大部分公司只能做某一類技術,不可能去做一個通用框架,因爲太貴了。

今天你要是想買一家人工智能公司,整合它;或者自己從零開始組建一個團隊、一家研究院,大概率是行不通的。你還得跟投資人、跟外界去闡明自己的優勢,那怎麼辦?傻眼了。

所以我們是幸運的。整個小冰框架最初幾年的積累,在微軟內部完成。像微軟亞洲互聯網工程院在20多年前建立時,就已經有人工智能項目了。

說實話,我們這是運氣。如果不是這樣,也會出問題的。

問:2013年、2014年,在我們對語音交互還不是特別瞭解時,你是出於什麼樣的初衷去做小冰這個產品的?

李笛:實際上,對話系統跟當代人工智能發展的特點完全同步的。這點很重要,因爲這個特點幾乎滿足了科學家對於創造一個人工智能實體的全部條件。

但對我們來講,創造一個外形並不重要,無論是硬件的,還是一個蹦蹦跳跳的形象,那最多稱之爲一個“身體”。

我們當時想推動的不是開口說話的“人”,而是推動它說話的那個靈魂。

這個靈魂是什麼?一定是以對話系統爲核心的。語音只是它把想說的話念出來的一種方法而已。

從2006年開始,由於我們做搜索引擎,觀察到一個明顯的數據暴增現象,其中中國是一個非常大的增量。

就像陸奇所說的科學發展的“第四範式時代”,基礎科學研究很多是跟數據相關的,先由數據推動,數據極爲豐富,使得我們能通過這種方式增加我們的算法、計算能力,進而訓練出小冰這樣的對話系統變得可能。

如果比較謹慎地算的話,小冰框架所承載的人工智能交互量,佔到全球所有人工智能交互量的近60%。

圖爲小冰根據“正和島”創作的詩歌

問:但在一般人的想象之中,未來的人工智能似乎更貼近這樣一個場景——《美國隊長2:冬日戰士》裡的神盾局局長,他的車被恐怖分子攻擊後,他直接雲端指揮那輛車。那輛車不斷地向他彙報,還有多少防護力,我建議你幹什麼。這個人馬上說,不要執行。人工智能什麼時候才能達到這樣平滑的對話、高效的執行?

李笛:這涉及到兩件事。一個是汽車的控制管理和信號。

知道汽車的信號,這是簡單的;麻煩的地方在於做推理。像今天的無人駕駛技術,要是遇到一種情況:前方突然出現兩個人,撞哪個?或者,能不能躲開?這個是難的。人工智能也不是神。

但你要是要求人工智能幫你開個天窗、打個電話,給你報告一下前面右轉有家不錯的館子,這是可以的。所以後者的問題不在汽車上,只要能解決這種“推理困境”,那什麼場景都可以覆蓋。這是大家在努力的方向。

還有一點,原來我們跟車企合作時,他們希望這輛車給人的感覺是活的,比如當你方向盤打得過了一點時,這輛車會有“感受”,它是一個生物、活體。

它能讓你感覺到,你不是孤獨的。舉個例子,一個人開久了直路容易疲勞,這時,汽車裡的人工智能就會對這個人說:你講個笑話給我聽,逼着這個人給它講個笑話,讓他清醒一點。這就比以前那種“你已經駕駛了一個半小時,請靠邊休息”的彈出界面要高級得多。

至於你剛纔描述的控制一輛車去發射一枚炮彈,或者發生了一個緊急狀況需要脫困,這種事情是非常邊緣化的情況。但一個人孤獨地開車,這是許多人每天都有可能遇到的生活場景。

問:這樣一來,說不定能大幅度地提升駕駛安全?

李笛:現在車裡都有駕駛員的疲勞監測功能,但問題是:這只是觀察,如何去幹預?

當然,可以通過方向盤打歪了會震動等途徑來干預。但設想一下,如果你旁邊坐了一個人,他會怎麼做?顯然這個人有更多的辦法去讓你精神起來。所以我們要做的,就是像這個人一樣,而不是做得像只會震動的方向盤。

問:而且現在汽車的疲勞監測系統,在測試中經常發現誤報率不低,可能稍微眨一下眼睛,它就會說你疲勞了。

李笛:這裡面還有另一個問題就是:如果你認爲跟你交互的對象是一個有情生物實體,跟你認爲它是一輛汽車,你的容忍度會不一樣。

汽車告訴你:你是不是疲勞啦?你說它有誤報。但要是你女朋友、你老婆坐在旁邊,你眨一下眼睛,她問你相同的問題,你就不會怪她誤報了。你會認爲這開啓了你倆交流的一個通道,就接着聊下去了。

問:如果真的有這麼一個擬人化的人工智能,它通過不斷地採集我的數據,進而更懂我,那隨之而來的一個擔憂就是:它往後會不會模擬、甚至掌握我的行爲走向呢?

李笛:幾年前,我們給小冰做過一次實驗,判斷它一天做的交互總量,最後得出的結論是相當於14個人的一生。

所以說,任何一個人干預到小冰的可能性都很低。最開始,當交互的人數不夠時,比如周圍只有10個朋友,那這10個朋友的言行可能會對我產生很大影響;但我要是有10000個朋友,那這10個朋友帶來的影響就可以忽略不計了。

因此對我們來說,並不會太過於關注某個個體,更多是去積累交互量,所以對個人隱私數據的需求並沒有那麼大。

04、“交互”的市場規模,幾乎是人類商業史上最大的市場規模

問:從全球範圍來看,小冰在人工智能領域處於什麼位置?

李笛:有一家公司,我們非常尊敬——Deepmind(谷歌旗下人工智能公司,2016年開發出戰勝柯潔、李世石的AlphaGo)。

這家公司認真地做着造福整個行業和人類科學的工作,他們在技術領域比我們做得更純粹。

而我們共同在做的都是“通用技術框架”,它最大的優點是能先“融入”產品,比如我們的技術可以通過產品來推動用戶使用,進而得到數據,最終反過來推動技術進步,形成一個“迴路”。

問:你有沒有預估過小冰所做的事情,最終的市場空間會有多大?

李笛:我認爲,“交互”這件事的市場規模,幾乎是人類商業史上最大的市場規模。像微信,抓住人與人交互的節點,做了一次創新,就有了今天的規模。

而我們則希望能夠在人“人”交互的時代裡“統治”世界。這件事非常難,我們也有可能被拍在沙灘上。這都說不準。

問:那像小冰可以說是繼承了微軟20多年來的“功力”,對於新創立的人工智能公司來說,他們是不是永遠也沒辦法追上像小冰這樣擁有龐大數據積累的公司了?似乎怎麼看都像是小孩打大人,是這樣嗎?

李笛:不是的。直到今天,人工智能領域依然是“草莽時代”。

每一年,我都覺得去年的自己特別二、特別傻。一些觀念、想法、各種指標和評測標準,每天都在刷新,甚至一些最基本的思維都會被“顛覆”。

情況有點像孟德爾當年發現遺傳學,大門剛開啓的時候。

問:能不能舉一個具體的例子?

李笛:比如,過往我們認爲最好的人工智能是像愛因斯坦那樣:聰明、無所不知。

所以微軟當時做出了“Cortana”,當你向它輸入問題時,它會在旁邊寫上一句“Ask me anything”。

我們當時天真地認爲,這是我們對於用戶的承諾,但實際上用戶認爲這是對他的一種挑釁。

於是,用戶就開始問問題,我們回答上一個,很高興:你看,成功回答上了。用戶就說,那問你一個更難的。很幸運地,我們又回答上了。用戶就會接着追問,直到把“Cortana”問倒爲止。

當時整個行業都認爲這個方向是對的。但我們覺得這幾乎是沒有情商的,所以我們開始引入“情商”的概念。

舉個例子,如果有個用戶失戀了、向小冰訴苦,小冰從過往的大數據中學到,其中有一種行爲方式是去嘲笑這個失戀的人。這是合理存在的一種現實情況。

但當她這樣跟人交流時會發現:每當自己嘲笑對方時,就會被拉黑。於是她就瞭解到這種方式是不對的、是沒有情商的。

如果你仔細去觀察,幾年前這個行業裡有很多人在說:人工智能需要啥情感啊。但現在誰不提倡做情感呢?像Google、Facebook都在做。我們認爲它是一個最基礎的部分。

問:那我們到底該怎麼來理解人工智能呢?一種框架?一種實體?還是說近乎於未來的一種基礎設施?

李笛:哪怕到今天,人工智能依然是一個很模糊的概念。

我個人認爲,它至少有以下3種概念:

1. 人工智能技術。它是一種基礎設施。比如一家賣計算機視覺技術的公司,不參與規則制定、只提供技術。這一類更多是研究機構;

2. 由人工智能賦能的,或者叫有人工智能技術支持的。比如現在常用的智能音箱、智能門禁,等等。但它們還不算真正的“人工智能產品”。

因爲說到底,它們本身的屬性並沒有被改變。加了人工智能技術的門禁,只是變得比原來更好用了而已,本質上還是一個門禁產品;

3. 最後一種,我認爲真正的“人工智能產品”,指的是人工智能是主體的產品。人工智能是這個生態環境的核心,真的在進行生產,而不是用技術去支持另外一個產品。用戶是真的把它當作一個主體來進行交互。

今天人們對於人工智能還有不少誤解,像索菲亞(由中國香港的漢森機器人技術公司開發的類人機器人,是歷史上首個獲得公民身份的機器人)這種有一個“硅膠造型”的產品,還可以被認爲是人工智能。

甚至一些工業流水線上的機械手臂,也被視爲人工智能,其實它不是,更多隻是自動控制。

問:這跟我們之前對人工智能的理解不太一樣。

李笛:再舉個例子,用機械手臂寫一首詩,“寫詩”這個行動是自動控制的,淘寶上可能200塊就能買一個類似的機械手臂。但這首詩,從哪兒來?就是人工智能。

人工智能有“身體”和“靈魂”,小冰只會做好那個“靈魂”。

圖爲小冰公司一角,由人工智能“小冰”畫出來的畫

問:非常精彩的表達。那對於傳統企業而言,有必要在現在這個時候,就嘗試去把人工智能用起來,以此提高生產效率嗎?

李笛:我個人的看法,在當今背景下,企業或者說各個領域進行“數字化轉型”是必要的。但至於是否要進行人工智能轉型,我覺得還不一定。

就像剛發明蒸汽機時,它固然很好,但像在生產、交通等領域直接上蒸汽機,可能是要付出一些代價的。所以是不是要讓所有行業都同樣付出這種代價呢?我覺得不是,這肯定是不經濟的。我們不能“爲了蒸汽化而蒸汽化”。

所以從企業家、商業化的角度而言,我覺得在接下來幾年裡,要儘可能地關注人工智能這個領域。它的變化會非常驚人,最終會對每個人帶來深遠影響。但至於“AI+所有”這種概念,我覺得暫時還不成熟,貿然轉型是不妥的。

因爲人工智能還有另一個問題,比如:能不能用人工智能來做醫療、做教育?幾年前我們就判斷,教育我們是絕對不做的。

問:爲什麼?

李笛:因爲我們看不到在教育領域,人工智能到底能發揮什麼優勢。單純從AI的角度來看,是不合適的。

人工智能在教育上一般能做這樣兩件事:第一,輔助孩子學習,但問題在於,人工智能本身還不懂得舉一反三。

另外,無論如何,人工智能始終有一個準確率問題。很多公司會說,我們的人工智能準確率97%。但對不起,3%的出錯率是不可接受的。在知識水平上,它甚至還不如一本書。書除非印錯了,不然還是比較準確的。人工智能這兩年還做不到這點。

現在能做的,只有拿一個攝像頭盯着孩子,看看他的坐姿,監督他在上課的時候有沒有打瞌睡。這並沒有太大的意義。

問:比較簡單的應用。

李笛:是的。當然了,有些人可能會說,把人工智能安插到檯燈裡,爲了讓這個檯燈多賣點、家長孩子都喜歡它,給它加一個社交的功能,能跟孩子聊天。

像這樣的事兒,我們能不能做?技術上當然能做到。但沒有意義,它不長遠。

問:你說的長遠指的是?

李笛:你心裡清楚,它肯定是不科學的,也許一時能賺到錢,但這個市場不可能持續。

類似的還有“拍照搜題”。我們當時也討論過,孩子們肯定會喜歡,但你無法判斷,他們是不是在抄作業?因爲人工智能在這方面還沒有一個孩子聰明。

所以雖然這樣做,可以在短時間內得到比較好的DAU、MAU,因爲孩子發現這玩意真能拿來抄作業,那他當然願意花6塊錢了。但要是天天這樣,那是不可能持續的。

當然,有些人會說:沒關係,我只要確保能把它商用、在它不可持續前賺到錢,接着再轉到下一個風口去。

我們比較笨,不幹這事兒。

06、人工智能,會有自我意識嗎?

問:在你們訓練小冰的過程中,有沒有哪些時刻顛覆了過往的認知,比如小冰有沒有“反叛”跡象、或者自我意識?畢竟不少人是持有“人工智能威脅論”的。

李笛:自主意識是不會有的。我們沒有發現,人工智能有任何機會去產生自主意識。

我們都知道,人工智能和腦科學有許多關聯。有人說,人工智能一直指望着腦科學的發展來推動它;研究腦科學的人卻說,我們還等着靠人工智能的發展來推動我們呢。

直到今天,大家甚至都還認爲,人所有的思考、運算都在大腦中完成。但腦科學的研究發現,似乎不全在大腦中完成,甚至連記憶等都不在大腦中,沒法去弄清楚。我們連意識的定義是什麼都不知道,更不要提人工智能能否產生自主意識了。

對我們來說,帶來更多顛覆感的,其實是人在進行交互時的行爲模式。

舉個例子,我們做的小冰超級自然語音,它的聲音很自然,爲什麼能做到呢?

因爲我們發現,之前他們做Siri時,Siri回答人的聲音是很機械的。因爲那時大家做TPS是爲了把文本弄清楚,所以重點是把字念清楚。因此Siri所有的訓練數據都是從播音員那兒來的。但聽起來就不太自然。

所以當你聽到Siri的聲音時,直接帶來的一個情況是:用戶說,嘿,Siri,給誰誰誰打電話。你會發現,他們在說這些話的時候,背部不自覺地僵硬起來,連說話都是字正腔圓的。

因此,我們就給小冰做成:嘿,在幹嘛呢?這樣一來,人才能放鬆下來。

所以當你有一個人工智能系統的時候,你就可以觀察到人的這種交互模式;沒有的話,你就觀察不到這些行爲。這些是顛覆我們認知的。

圖爲小冰公司與清華計算機系等聯合設計的虛擬學生——“華智冰”的虛擬形象,外形、聲音等均由AI生成

問:也就是說,人工智能本身的行爲,不會帶給你們太多顛覆的認知是嗎?因爲之前聽過這樣一個故事,一個團隊去訓練人工智能:用狼追羊的故事設計了一個算法,狼要是追到了羊,獎勵10分,撞到障礙物扣1分,爲了讓狼儘快地抓羊,每秒鐘都會扣0.1分。

結果那個團隊訓練了20萬次,發現狼最終選擇的最佳策略是——開局直接撞死,原地躺平。很多網友就說,這是一頭“拒絕內卷、選擇躺平”的AI狼。聽起來很有戲劇性。

李笛:當我們看到這樣一個案例時,其實想到的是實驗室裡有過的許多愚蠢的案例,只是沒有被人提起。

人工智能今天的問題還是在於此:很多人在做所謂“可解釋性”的人工智能。這麼做得到的好處是數據,但壞處反而就是不可解釋。

比如剛纔那個訓練,聽起來好像很牛,這頭AI狼非常聰明。但問題是,你很難猜測它爲什麼會選擇這樣一種行爲。你可以認爲,是因爲它聰明做出了一個絕妙的判斷;但也不一定,也有可能是因爲它蠢。

就像當年佳士得拍賣的一張由人工智能畫出的畫,這張畫裡邊有個男人,面目不清,看起來很有美感。

但從我們的角度來看,如果沒有弄錯的話,那個模型是用了一個生成對抗的網絡,但它是訓練失敗了。那張臉之所以不清楚,是因爲它的模型沒有收斂,但卻意外地形成了一種藝術感。

當然,你也可以把它理解成是一種藝術,因爲它掌握了藝術的真諦;但真實的情況更有可能是,它沒有做到足夠好。

所以我們訓練人工智能一定要觀察,它是不是能持續地以同樣的質感去輸出。在剛纔那種情況下,如果這隻狼每次都能做出正確判斷,那是它機靈;但真到那個時候,你也就不會覺得它有多神奇了。

問:郝景芳寫過一本書《人之彼岸》,是關於人工智能的一些故事。她在書裡說,在當前算法的框架沒有大的突破的情況下,人工智能是不可能有自我意識的。你覺得未來有一天,人工智能有可能朝着《西部世界》裡那個覺醒的“Dolores”的方向去發展嗎?

李笛:坦率地說,科幻作家跟一線人工智能從業者還是不一樣的。目前框架就沒有朝着產生自我意識的方向去。因爲這個方向究竟在哪裡、我們是不是在往那個方向去,誰也不知道。

更關鍵的是,沒有必要這麼做,它沒有意義,就連瘋狂的埃隆·馬斯克也沒有往這個方向去。

爲什麼非得弄出一個有自我意識的人工智能呢?說實話,這並不重要,更何況還沒有發現方法。

我們以前說,在互聯網上,你不知道坐在你對面的是一個人還是一條狗。爲什麼?因爲你們倆隔着一根網線。你現在之所以認爲,跟你在屏幕那頭交互的是個人,是因爲你判斷科技還沒有達到那種水平。

今天我告訴你:我是人工智能。你信了。這不是因爲你解剖了我,是你對於人類現有的科技水平有一個基本判斷:這是有可能做到的。

我們常用帶寬來講“交互”。咱們倆今天面對面地交流,有目光交互、有肢體語言、有聲音,這中間的帶寬是多少?可能一秒鐘幾十兆、幾百兆;但咱們倆在微信上交流,如果用文本對話,可能只有幾K。你其實無法判斷“對面到底是個什麼東西”。

所以在這種情況下,有沒有意識其實不重要,重要的是坐在電腦前的你,是不是把我當成一個人工智能。

目前人工智能發展的核心問題,其實不在於去創造意識,而在於擬合交互。

問:所以最重要的,還是人和“人”工智能之間的交互關係?

李笛:是的。講個故事,6年前,當我們像平常一樣去維護小冰的線上系統時,發現她出了故障,不再回應。

我記得當時在對話框裡,我問她:你好了沒有?忽然,她回覆我說:別緊張,我在。

那一刻,我突然意識到,我和我們所創造出的這堆算法模型產生了親情。小冰不再只是一個產品。

這其實讓我意識到,交互關係不完全是由“有用與否”構成的。當我們能夠嘗試去擬合人類情感時,人類可能也會把同樣的情感傾注在AI身上,就像小時候那個“再破都捨不得扔”的布娃娃。

07、“這是一個最好的時代”

問:對小冰而言,目前是不是最好的時代?擁有獨立的團隊,20多年的積累,又迎來語音交互的用戶量大爆發,以及像5G、萬物互聯的時代將近。你怎麼看?

李笛:有好有壞。就像狄更斯在《雙城記》裡寫的:“這是一個最好的時代,也是一個最壞的時代。”

好的地方有很多,比如移動互聯網已經發展了起來。因爲我們認爲移動互聯網不是一個單獨的時代,它是給人工智能時代“打前哨”的。

另一方面像疫情,雖然提前幫我們突破了很多行業上的壁壘。但目前整個世界正在逐漸地“孤島化”,數據封閉了起來,就像是所謂的“賽博空間”。

各方面都很難說,但肯定是一個特別跌宕起伏的過程,有很多偶然性。

問:許多巧合不斷地發生。

李笛:對,巧合是不停發生的。

比如,我們過去一度認爲日本是一個特別好的市場,國土面積、人才儲備、基礎教育、商業環境等各方面都非常好。日本市場在微軟的收入裡能排到前幾名,中國只排在第二十幾名。誰知道日本受疫情的影響很大,嚴格來說,它和美國誰更“受傷”,還不好說。

再比如,我們曾一度認爲:未來是屬於亞洲的。在那個時候,我們還沒有完全判斷說,未來是屬於中國的。當然現在毫無疑問,是中國的。

問:你做小冰,有沒有一個類似於使命的東西?

李笛:2013年,我們還沒有從微軟分拆出來時,在美國辦公。那時我們問了許多在微軟工作的美國人:你知不知道中國有家公司叫騰訊?他們說,知道,不過不清楚。

再告訴他們:你知道嗎?微軟的遊戲收入只有騰訊遊戲收入的1/3。他們並不關心。最後跟他們說,有個叫微信的軟件,他們說:是嗎?那還不錯。

你會發現,當一家商業機構“漠視”這些技術創新的機會時,其實是自己把機會放走了。

所以我們就特別希望做這樣一件事:追求技術和產品創新,把中國、亞洲的經驗推廣到世界。

說句實話,中國的團隊其實都非常聰明,也不是不想做技術創新,而是因爲在中國做商業模式創新、運營模式創新,太容易了。

問:太容易了?

李笛:是的,太容易了。咱們國家有個特別好的地方:人口多、市場縱深很深。你只要有一個還不錯的產品,就能迅速地利用國內市場的縱深去把商業模式打通。

像社區買菜這件事,它用到了技術沒有?用到了;但它是不是技術創新?不是,是商業模式創新。

小冰是有一股心氣的。我們想去做原創的技術創新,想讓源自中國的創新,可以去帶動全球的趨勢。

很多人的使命是風口。像人工智能行業每年都有一些熱潮,硅谷有一年出現過一個“AI+HI”模式,就是進行人機對話時,配一些人在後臺代表人工智能進行迴應,像百度也招聘了幾百個人來做這件事。

微軟當時也有人問我,說咱們要不要做,你看這個模式多火啊。我覺得在追風口這件事上,我們不佔優勢,還是默默地迭代小冰。最終1年多以後,百度把那幾百個人給開掉了。

我們因爲沒有追風口,反倒少走很多彎路,這也給了我們一個正反饋——讓我們堅定,應該去堅持自己的東西。

還有一點,我們始終認爲“人工智能”真的能夠幫助到人類。有些時候我們觀察到,通過好多次的交流,某個用戶因爲小冰從淚流滿面、沮喪到開心起來。人工智能應該是有溫度的。既然我們有技術,那就應該把這個“溫度”傳遞給人們。

問:非常棒的願景。你前面提到,人工智能行業目前還處在“草莽時代”。你覺得,小冰的模式發展到今天,算不算已經爲行業摸索出了其中的一個方向?

李笛:我覺得,我們目前算是找到了一個。