周末的時候,百無聊賴,我在網(wǎng)上搜尋著還有啥值得看的東西,誤打誤撞地,我在網(wǎng)站上看到一段訪問視頻,標(biāo)題是: 尤瓦爾·赫拉利對談張靜初:AI正在制造慢不下來的人 尤瓦爾·赫拉利,如雷貫耳的名字,他就是那個寫了著名的《人類簡史》的人。《人類簡史》這套書是全球現(xiàn)象級的暢銷書,全球銷量超過2600萬冊。2600萬冊是什么概念呢?如今紙質(zhì)書能賣到1萬冊就謝天謝地了,能賣到10萬冊就是難得的暢銷書了。 張靜初,也是大眾耳熟能詳?shù)拿?,她被國?nèi)民眾熟知的身份是著名女演員,也是小紅書上的學(xué)習(xí)版塊的當(dāng)紅博主。 這兩個似乎不在一個次元的人,坐在一起對談,談的居然是AI,這讓我產(chǎn)生了巨大的好奇。 說實話,大部分人看這段訪談視頻的動力應(yīng)該不是因為張靜初,而是因為赫拉利。 這位學(xué)者可算是大神級的人物,他對世界和人類社會的洞察總是那么另辟蹊徑又一針見血。 50多分鐘的視頻,我仔細(xì)地看完了,沒有快進,沒有去看精華剪輯版,這在當(dāng)下這個8分鐘看完一部電影的時代,已經(jīng)是一件難得的事了。 大神和張靜初的對談很精彩,張靜初英語口語非常流利,可見是有真才實學(xué)的。 整個訪談的知識密度很高,我看視頻的過程中,幾乎每幾十秒,我就要暫停一下,做一點筆記。因為這里面提到的很多觀點都引起我強烈的共鳴,我忍不住要把這些意味深長的話寫下來。 聽君一席話,猶如精神上享受了一頓大餐,今天我想和瓜友們分享其中部分觀點和我的感觸。 赫拉利教授的新書叫做《智人之上》,探討的是AI技術(shù)對于人類社會的影響。 比如其中提到,在社交媒體領(lǐng)域,AI和算法已經(jīng)無處不在。 我想大部分上網(wǎng)的人都有這個感受,如今你在社交媒體上看什么,已經(jīng)不由自己決定了,而是算法讓你看啥,你就看啥。 比如抖音,小紅書等平臺,一直都是平臺的算法推送機制占主導(dǎo)地位。這兩年,就連曾經(jīng)以用戶訂閱為主導(dǎo)的微信公眾號平臺,也架不住KPI的考量,轉(zhuǎn)換賽道變成了由算法來推送內(nèi)容給用戶。 你訂閱的公眾號更新不一定會顯示,而你沒有關(guān)注過的各種明星八卦,狗血低俗劇情,一股腦地推給你。 簡直是流氓!(媽喲,這么直白地罵,不會被小馬哥拉黑吧?) 我之所以這么氣憤,倒不是因為我作為博主利益受損才生氣,個人得失只是微不足道的小事,而是這種算法主導(dǎo)背后的深層影響令人細(xì)思極恐。 赫拉利大神在訪談中提到,社交媒體背后的AI算法,最初只有一個單純的目標(biāo),就是增加用戶的參與度(Engagement),讓每個用戶在平臺上多花時間。 如果每個人每天在平臺上逗留的時間從30分鐘提高到了一個小時,這就是一種巨大的成功,至于你這一個小時看了什么內(nèi)容,有沒有收獲,這不是算法要考慮的問題。 很快,算法通過大量的數(shù)據(jù)和反饋,發(fā)現(xiàn)了提高KPI的秘密。 是的,大家都知道,算法是很懂得學(xué)習(xí)的,大量的數(shù)據(jù)反饋和深度學(xué)習(xí),讓它比人類更能得出精準(zhǔn)的結(jié)論。 算法發(fā)現(xiàn),要讓用戶更多地參與,更長時間地留在平臺,就要激發(fā)用戶強烈的情緒。 特別是那些負(fù)面的情緒,比如仇恨,恐懼,貪婪。 一開始聽到赫拉利大神的這個結(jié)論,我頓時有一種醍醐灌頂?shù)母杏X。 是的,那些引人憤慨的負(fù)面事件,讓大眾恐慌的謠言,還有引人貪欲的內(nèi)容,確實是能最快最廣地傳播。 科普生物課知識的關(guān)注度,肯定比不上散播某國或某種族的陰謀論,對于算法來說,后者更有助于KPI。 于是算法自然而然地會更多推流那些讓人們生氣,激動,爭議,對立的內(nèi)容。 社會群體越來越極端和分化,情緒越濃烈,流量也就越高,平臺的業(yè)績就更好看。 看到這里,你是不是倒抽一口冷氣? 赫拉利教授在訪談中舉了一個真實案例,講臉書平臺在2016年助長了緬甸的種族暴力沖突。 在緬甸,臉書也作為海外投資進入到緬甸,然而,隨著時間發(fā)展,社會種族之間日趨緊張。 占多數(shù)的信仰佛教的緬族人和占少數(shù)的伊斯蘭教的羅興亞人之間沖突不斷升級,最終導(dǎo)致7000-25000名平民被殺,18000-60000名男女被強奸和虐待,73萬名羅興亞人被驅(qū)逐出緬甸。 在這場暴力沖突中,臉書的算法起了決定性的作用。 臉書是如何做到挑起一個遙遠(yuǎn)的國度的種族沖突的呢?秘密正是在于它的推流算法。 雖然臉書曾辯稱自己只是中立的工具和平臺,然而事實是,平臺背后的算法主動選擇讓特定的內(nèi)容進行傳播。例如在緬甸這場事件中,有53%的視頻是由算法自動播放給民眾的。 當(dāng)帶著偏見,陰謀和仇恨的內(nèi)容被日積月累地散播給廣大民眾,顯而易見,社會各族群之間的關(guān)系會越來越緊張,并最終爆發(fā)流血事件。 那么,難道算法本身是邪惡的嗎? 并不,它最初的目標(biāo)只是不斷提高平臺的KPI,讓更多人參與和傳播,讓人們更長時間留在平臺。 看到這里,你是不是也感到害怕? 回想起如今網(wǎng)絡(luò)上的內(nèi)容,不管是微博還是其他社交媒體平臺,爭吵,對立,控訴和小作文一波又一波地被傳播。 真正是,壞事傳千里,好事不出門。 有時我們甚至悲觀地想,是這個世界變壞了嗎? 也許,不是世界變壞了,而是算法只讓我們看到了壞的一面,對于信息,我們已經(jīng)沒有了選擇權(quán)。 在訪談的后半部分,赫拉利也給出了自己的建議,如何應(yīng)對這個時代海嘯一般的信息洪流?這里面還大部分都是泥沙。 他說,我們要有意識地進行信息節(jié)食。 在過去信息是稀缺的,所以我們接受我們能得到的任何信息?,F(xiàn)在我們被太多的信息淹沒了,還有很多垃圾信息。 垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們逐漸地心智病態(tài)。 就像現(xiàn)代人都知道飲食要有節(jié)制,不能胡吃海塞,否則不健康。對于信息也是同樣的道理。 赫拉利大神是個狠人,他不僅很少使用智能手機,而且每年都進行長達幾周的冥想靜修。 在禪修期間,他完全斷開了和外界的聯(lián)系。不看新聞,不讀電子郵件,不讀書也不寫書——他只是花時間消化頭腦中已經(jīng)包含的東西,而不是往里面塞更多的信息。 雖然我們大部分人沒有條件去失聯(lián)靜修,但是在生活里有意識地進行信息節(jié)食卻是個不錯的法子。 在國內(nèi)生活的這幾年,我沒有微博,從不看抖音等短視頻平臺。我唯一的社交媒體在公眾號平臺,但是連它也變得越來越讓人討厭了。 以前,我只是本能地反感這些平臺上推送的內(nèi)容,現(xiàn)在聽了赫拉利教授的分析后,我決心要更加警覺,不被算法推送的垃圾裹挾和影響。 一日三餐,我想吃得健康,吃得適量,而不是被一堆垃圾塞滿了腸胃。 如果你也有同樣的感想,可以試著主動去檢索自己想看的內(nèi)容或博主,多使用搜索和過濾,而不是無意識地上滑。 當(dāng)然,平臺和算法的能量是巨大的,我們每一個個體是渺小的,想要和算法對抗,幾乎是螳臂當(dāng)車。 號召每一個用戶主動篩選和判斷信息,這還解決不了根本問題,這就好像,讓一個人在垃圾桶里撿食物,他沒辦法吃得健康。 關(guān)鍵是這些掌控著全球大部分信息來源的社交平臺巨頭們。 當(dāng)初,當(dāng)拉里·佩奇和謝爾蓋·布林在1998年的斯坦福大學(xué)宿舍里創(chuàng)立谷歌時,他們說他們想要“整合全球信息,使人人都能訪問并從中受益”。 而如今,谷歌剛剛被歐盟委員會罰了創(chuàng)紀(jì)錄的24億歐元,因為谷歌借助自己的壟斷地位,用算法打壓競爭對手的購物服務(wù),而傾向了自家的購物車服務(wù),很多中小創(chuàng)業(yè)者因此受創(chuàng)。 扎克伯格創(chuàng)建Facebook時,愿景是“讓世界更加開放,更加緊密相連”。 但早在2021年,F(xiàn)acebook前員工弗朗西絲?豪根就實名對英國議會檢舉,如果Facebook平臺不停止他們熱推極端和撕裂性內(nèi)容的算法,則該平臺將會在全世界煽動更多的暴力騷亂活動。 全球視頻領(lǐng)域的大佬油管(Youtube),在官網(wǎng)介紹上說,“要讓世界更開放,少一點孤單,更有創(chuàng)造力,更有趣,并最終變得更好”。 而如今,戰(zhàn)爭,種族偏見,難民矛盾成了流量擔(dān)當(dāng),當(dāng)年輕人越多沉浸在油管,他們只會得到越來越多的偏見。這個戰(zhàn)火四起的世界,顯然沒有變得更好。 當(dāng)然,國內(nèi)的社交媒體平臺們也沒有好到哪里去,不然你猜現(xiàn)在為啥男女關(guān)系變得如此對立和緊張? 微博說,它只是想讓你“隨時隨地發(fā)現(xiàn)新鮮事”,但是現(xiàn)在它只想讓你站隊,你是普信男,還是喜歡楊笠? 不管是國內(nèi)還是國外,這些社交平臺的大佬們,都是千萬分之一的人類精英,難道他們不知道,他們豢養(yǎng)的AI算法這頭巨獸,正在逐步毀滅人類? 他們當(dāng)然知道,但是這頭巨獸正在給他們帶來巨大的商業(yè)成功。 只要算法能幫他們多延長用戶停留時間,能增長一丁點市場占有率,那在世界的某個角落,某個種族正在被驅(qū)逐,某個地區(qū)爆發(fā)戰(zhàn)爭,這些他們統(tǒng)統(tǒng)不在乎。 他們更加不會在乎,用戶在平臺看的垃圾內(nèi)容,會不會讓人類慢慢心智扭曲和退化。 社交媒體興盛的這幾年,我們花了越來越多的時間在手機上,接收了更多的資訊,但我們卻沒有變得更睿智,這個世界也沒有變得更好。 在中國,原本是美好的女性獨立意識萌發(fā),慢慢地變成了男女對立和各種罵戰(zhàn)。 在德國,日耳曼人和土耳其裔的移民鴻溝越來越深,而難民矛盾也一再被放大,刺痛了每一個德國人。 在美國,歷史悠久的種族矛盾沒有消除,而社會階層的分化和對立反而愈演愈烈。 和這些相比,很多年之前百度莆田醫(yī)院門事件就只是小兒科了,如今的社交媒體正在全球范圍內(nèi)分化和對立人群,算法不僅可以輕而易舉地擾亂和影響總統(tǒng)選舉,它還會讓人類族群互相孤立,仇恨,并最終自相殘殺。 AI算法可怕,而縱容了這頭巨獸的平臺大佬們更可怕,為了商業(yè)利益,他們挾持著全人類飲鴆止渴。 幸好,有赫拉利這樣的智者,振臂一呼,戳穿了這個時代的真相。 |
|