美國東部時間4月10日下午2點15分,美國參議院商務(wù)、科學與交通委員會和參議院司法委員會針對 Facebook 舉行了一場聯(lián)合聽證。44位參議院議員輪番轟炸,將熱鍋中的小扎煮了一遍又一遍。在面對國會各方大佬的質(zhì)詢時,扎克伯格的表情嚴肅,但臉色蒼白,仿佛一個作弊被當場抓住的孩子,此刻正要面對44名兇神惡煞的教導主任。盡管小扎鎮(zhèn)定而頑強的應(yīng)對,涉險守關(guān),但我相信小扎這樣的遭遇不會是最后一次。 扎克伯格要在國會對半個多月前爆發(fā)的用戶數(shù)據(jù)漏露事件作出回應(yīng)。事件中預計超過5000萬Facebook用戶數(shù)據(jù)遭到了竊取,并疑似被俄羅斯方面利用,干預了美國總統(tǒng)大選,進行基于大數(shù)據(jù)的政治廣告精準投放,最終讓特朗普問鼎白宮。 然而,作為一個市值超過5000億美金公司的掌門人,扎克伯格自有其過人之處。經(jīng)過連續(xù)五小時的連環(huán)審問,他的思維依然敏捷,就像一個狡猾的律師,不辯到休庭絕不退縮,并盡可能地把所有沖向被告的指控軟化。 美國參議院商務(wù)委員會主席圖恩發(fā)問道:.“這可能是你首次在國會露面,但Facebook其實并不是第一次面對有關(guān)隱私的問題了?!禬ired》 雜志最近指出,關(guān)于用戶隱私方面,您從創(chuàng)業(yè)之初就開始道歉,已經(jīng)道歉了14年。那么你憑什么叫我們相信,今天會和以前有所不同呢?”對這個問題,扎克伯格表示沒辦法?!澳阆胂耄谀愕乃奚崂飫?chuàng)辦一家公司,然后將它發(fā)展到現(xiàn)在的規(guī)模,整個過程中一點錯誤都不犯,這根本不可能?!?這樣的托辭顯然是不能服眾的。 扎克伯格稱,“Facebook正在經(jīng)歷一場哲學意義上的轉(zhuǎn)變?!背闪⒅?,公司提供的服務(wù)是幫助人們相互連接獲取信息,那時整個團隊都把精力放在了創(chuàng)造工具上。“我認為我們的責任主要是創(chuàng)造工具,如果我們能夠?qū)⑦@些工具放在人們的手中,社會將會變得更美好?!钡詮囊幌盗嘘P(guān)于假新聞、數(shù)據(jù)隱私泄漏、外國勢力干涉大選等丑聞爆出后,F(xiàn)acebook發(fā)覺僅僅構(gòu)建工具是不夠的,必須要采取更為主動的行動,來確保這些工具能夠用于良好的目的。 小扎表示,F(xiàn)acebook 之前只專注于為人們提供交流的各種工具,而沒有意識到有人會利用這些工具作惡。這是我們錯了,現(xiàn)在我們要改進,我們要更關(guān)注并治理 Facebook 上的虛假信息、仇恨言論,同時不讓惡勢力利用用戶的信息而左右他們的意見。議員們并不善罷甘休繼續(xù)追問:“你如何懲罰這些惡勢力?”扎克伯格認為人工智能是Facebook對付這些惡勢力的工具。 現(xiàn)在,F(xiàn)acebook正在開發(fā)人工智能技術(shù),用來主動識別某些不良活動,并為審核團隊將疑似內(nèi)容標記出來。與此同時,作為尚不成熟的人工智能技術(shù)的補充,F(xiàn)acebook準備將安全和內(nèi)容審查團隊的規(guī)模擴增至兩萬人。 扎克伯格表示,在例如恐怖主義宣傳這樣重點關(guān)注的的領(lǐng)域,人工智能的技術(shù)已經(jīng)相對完善,能夠成功定位到此類言論并實現(xiàn)迅速刪除?!癋acebook上99%的有關(guān)于ISIS和基地組織的內(nèi)容在被用戶看到之前,都被我們的人工智能系統(tǒng)定位刪除了?!?/p> 但至于煽動性的仇恨言論,扎克伯格,還需要5到10年的時間——這還是在樂觀的情況下——人工智能技術(shù)才有望識別出人類語氣的細微差別。在此之前,這方面的審核依然會處于一種被動的舉報-人工干預-刪除的過程。為了避免人工審核團隊受到主觀臆斷的影響,扎克伯格稱,F(xiàn)acebook制定了一系列政策,力圖使團隊站在一個客觀的位置上。不難發(fā)現(xiàn),扎克伯格將人工智能視為解決審核的未來解決方案,實際上他在五個小時中多次提及這點。 除了媒體和政府,絕大多數(shù)人似乎還是抱著一種置身事外的態(tài)度來看待數(shù)據(jù)泄漏的問題。在3月的中國高層發(fā)展論壇上,李彥宏發(fā)表言論稱,中國網(wǎng)民愿意用隱私換便利,結(jié)果被眾人群起而噴之。但事實上,這一點無論中美,區(qū)別都不大。畢竟地球上無論哪個角落,在注冊推特或Facebook時,都沒幾個人會完整讀一遍用戶協(xié)議。毫無疑問,互聯(lián)網(wǎng)倫理問題凸顯,為此我和我的研究生還寫一篇文章《倫理應(yīng)該成為互聯(lián)網(wǎng)治理的基石》。 中美兩國的互聯(lián)網(wǎng)公司們,在極速擴張的過程中,總會不約而同地選擇把道德和社會影響層面的修正往后放一放。盡管移動互聯(lián)網(wǎng)發(fā)展了這么多年,但依然算是新興技術(shù),監(jiān)管層理解并做出反應(yīng)也需要時間。在這個時間差中,公司們以迅雷不及掩耳之勢攻城略地,難免留下一地雞毛。 如今,掌握了天量用戶數(shù)據(jù)的互聯(lián)網(wǎng)帝國們的走向,事實上都依附在少數(shù)幾個掌門人的良心中。這一點無法不讓人細思極恐。 美國科學家的研究證明:在互聯(lián)網(wǎng)上,假新聞要跑得比真新聞快。面對虛假信息、信息安全、隱私保護等問題,無論是扎克伯格還是李彥宏都意識到人工智能的作用。近年來,人工智能有了很大發(fā)展并成為互聯(lián)網(wǎng)下一個發(fā)力點。然而,大多數(shù)互聯(lián)網(wǎng)巨頭還只是把人工智能用于產(chǎn)品開發(fā)和產(chǎn)業(yè)發(fā)展,他們有多大誠意和決心把它用于保護用戶利益?用于互聯(lián)網(wǎng)的健康發(fā)展?這是我們都需要關(guān)心的事。 當下人們對人工智能(AI)津津樂道,下棋中機器人打敗人類,機器人是不是讓更多的人失業(yè)?無人駕駛汽車什么時候到來?人工智能如何成就教育和學習?以驚人的速度進步發(fā)展,電腦成為了視覺學習者。從面部識別付款到監(jiān)控嬰兒睡覺時的情況,機器學習的應(yīng)用無處不在。但隨著大量視覺數(shù)據(jù)被用來進行深度分析,如何確保AI做到負責地收集視覺數(shù)據(jù)成為一大難題。 電腦分析人類情緒和行為的能力還有待提高,但相關(guān)組織必須快速決定哪些視覺數(shù)據(jù)可以被電腦所用。機器必須學會如何在不對人類造成困擾的情況下運用數(shù)據(jù)。此外,相關(guān)公司必須學會篩選數(shù)據(jù):在收集過程中,要確保所收集的視覺數(shù)據(jù)既有效又不會得罪人或違法。賦予算法決定能力的同時必須確保其承擔相應(yīng)的重大責任。至少有必要讓智能機器做到對它們的決定做出解釋并說明該決定的可行性所在。 譚天相關(guān)文章鏈接: 倫理應(yīng)該成為互聯(lián)網(wǎng)治理的基石
|
|