AI 正在以超越我們想像的速度迭代,面對這個局面,
教育應該怎麼辦?公司應該怎麼辦?你我應該怎麼辦?

萬維鋼親臨矽谷,與AI領域第一線專家面對面交流瞬息萬變的資訊,
從AI技術與應用的底層邏輯出發,完成這本在AI時代發揮優勢的生存手冊《拐點》
陪你理解AI,適應AI,駕馭AI!


 《權力與預測》這本書中有一個洞見,我認為有可能就是AI和人分工的指導原則。簡單說,就是雙方共同做出決策,其中AI負責預測,人負責判斷。

要理解這一點,我們先看一個真實的案例。美國網路叫車公司Uber(優步)一直在測試自動駕駛汽車。2018年,Uber的自動駕駛汽車在亞利桑那州撞死了一個行人,引起激烈的討論。仔細分析這次事故,我們會發現,在撞擊前6秒,AI已經看到前方有一個未知物體。它沒有立即做出剎車的決定,因為它判斷那個物體是人的機率非常低—雖然機率並不是0。

AI有個判斷閾值,只有在前方物體是人的機率超過一定數值的情況下,它才會剎車。撞擊前6秒,機率沒有超過閾值;等到終於看清是人的時候,剎車已經晚了。

我們把剎車決定分為「預測」和「判斷」兩步。AI的預測也許不夠準,但是它已經預測出這個物體可能是一個人,它給出了不為0的機率。接下來的問題出在了判斷上—在這個機率上應不應該踩剎車,是這個判斷導致了悲劇。

Uber的AI用的是閾值判斷法,這可以理解,如果對前方任何一個「是人的機率不為0」的物體,AI都選擇剎車,它就會在路上不停地踩剎車,這車就沒法開了。當然你可以認為這個閾值不合理,但是這裡總需要一個判斷。

請注意,正因為現在有了AI,我們才可以做這樣的分析。以前發生過那麼多人類司機撞人的事件,從來沒有人去分析該司機是犯了預測錯誤,還是判斷錯誤。但這種分析其實是完全合理的,因為兩種錯誤性質很不一樣。

請問這位司機:你是根本沒看見前方有人呢?還是已經感覺到前方物體有可能是人,但是你感覺那個可能性並不是很大,又因為趕時間,你覺得這麼小的機率可以接受,就開過去了?

你犯的到底是預測錯誤,還是判斷錯誤?

決策=預測+判斷。

預測,是告訴你發生各種結果的機率是多少;判斷,是對於每一種結果,你在多大程度上願意接受。

關於如何基於預測的機率做決策,有本書裡講了個方法,蒂姆.帕爾默(Tim Palmer)在《The Primacy of Doubt》(我翻譯為《首要懷疑》)裡舉了個例子。假設你週末有個戶外聚會,要不要為此租個帳篷防止下雨,這是你的決策。天氣預報告訴你那天下雨的機率是30%,這是預測。面對這樣一個機率,下雨的損失是不是可以接受的,這是你的判斷。

通常來說,只要採取行動的代價(帳篷的租金)小於損失(下雨會給你帶來的麻煩)和機率的乘積,就應該採取行動,租個帳篷防止淋雨。但是在這一節的視角下,請注意,這個「應該」,應該理解成是對你的建議。

是否採取行動的拍板權還是在你手裡,因為那個損失最終是由你來承受的。AI不會承受損失,用公式提建議給你的人也不會承受損失。在場來賓—是英國女王也好,是你岳母也罷—淋雨這件事是大是小,不是AI所能知道的,那其實是你自己的主觀判斷。

AI很擅長預測天氣機率,但是判斷一個天氣狀況帶來的後果,需要更多具體的、也許只有你自己才知道的資訊,所以做判斷的應該是你,而不是AI。

AI時代的決策=AI的預測+人的判斷。

也就是說,我們應該讓預測和判斷脫鉤。以前所有的決策都是人負責預測,人負責判斷,現在則應該是AI負責預測,人負責判斷。(圖3-1)


我們承認AI比人聰明,但是真正承受風險、體驗後果的是人,所以最終拍板判斷的必須是人。如果你是一個企業主,聘請了一名非常厲害的專業經理人擔任你公司的CEO,他在所有方面的能力都超過你,那你能把決策權都交給他嗎?不能。因為公司是你的,萬一賠錢,賠的是你的錢。同樣的,AI再厲害,也只能讓人類醫生承擔醫療責任,讓人類員警行使執法權,讓人類領導者掌握核按鈕手提箱。只有人能以血肉之軀承擔後果,我們只能向人問責。

預測是客觀的,判斷是主觀的。AI不能僭越人的判斷,人也不應該專斷AI的預測。

AI與人各安其位,分工明確。

如何實施這個分工呢?

一個方法是,人為給AI設定一個自動判斷門檻。

比如自動駕駛汽車,我們可以規定,當AI預測前方物體是人的機率高於0.01%—或者0.00001%也行,反正得有個不為0的數值—的時候就必須踩剎車。這個判斷標準,這條線,肯定不是AI自己規定的,而是人事先設定的。你可以寫程式把這條線設計到AI中,但是下達這條程式指令的,必須是人,因為只有人能判斷人命的價值。對AI來說,人命的價值是無法用客觀方法估算的。

其實我們已經在用這種判斷了。以前你到商店買東西用的是現金,那個現金是真鈔還是假鈔,得由收銀員自己預測、自己判斷。現在你刷信用卡,那個信用卡是真卡還是假卡,不是由收銀員決策,而是由信用卡聯網系統根據演算法來預測和判斷的。

演算法會先評估這張卡是假卡的機率有多大(預測),再看看那個機率是否高於某一條線(判斷),然後決定是否拒收。那條線不是任何AI算出來的,而是事先由某個人類組成的委員會畫定的。因為線畫得太低得罪客戶的是人,線畫得太高承擔損失的也是人。

未來我們會面對各種各樣類似的事情,《權力與預測》這本書建議,這樣的判斷最好像評估一種新藥是否可以上市一樣,由一個像FDA這樣的機構來執行。



另一個方法是,把判斷量化成錢。

你租了一輛車,要去一個比較遠的地方,有兩條路線可選。第一條路線比較直,你老老實實開車就行,但路上沒什麼風景。第二條路線會經過一個風景區,對你來說是一種享受,但是風景區裡有行人,會增加出事故的機率。

如果AI直接跟你說兩條路出事故的機率有多大,你可能還是不好判斷。

更方便的做法是,AI告訴你,走風景區那條路,租車的保險費比走第一條路貴1塊錢。這1塊錢的保險費代表AI對兩條路風險差異的預測。

現在判斷交給你。如果你認為風景對你的重要性超過1塊錢,那你就走風景區;如果你對風景沒有那麼高的興趣,你就省下1塊錢。

你看,AI無須了解你,也不可能了解你—是你在這1塊錢和風景之間的選擇,揭示了你的偏好。

在經濟學上,這叫做「顯示性偏好」(Revealed Preference):

人的很多偏好本來是說不清的,但是一和錢掛鉤就能說清了。

預測與判斷脫鉤,對人是一種賦能。

以前如果你想去開計程車,可不是會開車就行。你得先學認路,你得知道這個城市中從任意A點到任意B點的最短路線是什麼(就是你得會預測),才能開好計程車。現在AI接管預測路線的事,你只要會開車就可以去開多元計程車了。

有了AI,人會判斷就會決策。但這並不意味決策很容易,因為判斷有判斷的學問。

生活中更多的判斷既不是由委員會畫線,也不能被量化成金錢,而是必須由個人對具體情況進行具體分析。這個結果對你來說到底有多好,或者到底有多壞,你到底能不能承受,該怎麼判斷呢?

有的可能是你透過讀書或跟別人學的,比如你聽說過被燒紅的烙鐵燙會很疼,你就會願意以很高的代價避免被燙。但是聽說不如親歷,只有真的被燙過,你才能知道有多疼。判斷,有很大的主觀成分。

而判斷這個能力正在變得越來越重要。美國的一個統計顯示1,1960年只有5%的工作需要決策技能,到2015年已經有30%的工作需要決策技能,而且還都是高薪職務。

只有人知道自己有多疼,所以人不是機器。而判斷力和隨之而來的決策力,本質上是一種權力——AI沒有權力。

--本文摘自 萬維鋼《拐點》

相關專欄 最新文章