播放GIF 在2013年廣為關(guān)注的一篇研究中,Carl Benedikt Frey 和 Michael Osborne 核查了702種職業(yè)的計(jì)算能力,并發(fā)現(xiàn)美國(guó)47%的工人都面臨著工作自動(dòng)化的風(fēng)險(xiǎn)。尤其是,大部分運(yùn)輸業(yè)和客運(yùn)業(yè)和公關(guān)類都有可能會(huì)被計(jì)算機(jī)所取代,還有許多銷售業(yè)與服務(wù)業(yè)人員也面臨著工作被計(jì)算機(jī)取代的威脅。 經(jīng)濟(jì)學(xué)家正在擔(dān)心“職業(yè)兩極化”的風(fēng)險(xiǎn),實(shí)際上,工作可以被劃分為兩種常規(guī)職業(yè):第一種即高薪水高技術(shù)的職業(yè)(建筑師,高級(jí)管理),還有低薪水低技術(shù)的職業(yè)(清潔工,快餐員)。許多西方國(guó)家中層職業(yè)薪水的停滯都表現(xiàn)出自動(dòng)化已經(jīng)開(kāi)始產(chǎn)生影響。 圣路易斯聯(lián)邦儲(chǔ)備銀行發(fā)表的數(shù)據(jù)顯示,在美國(guó),非常規(guī)認(rèn)知型工作以及非常規(guī)手工型工作自1980年后逐步增長(zhǎng),而常規(guī)化工作則一直維持幾乎不變。隨著更多工作自動(dòng)化,這種趨勢(shì)很可能會(huì)延續(xù)下去。 達(dá)芬奇研究院的高級(jí)未來(lái)學(xué)家Thomas Frey發(fā)表了一篇令人激動(dòng)的文章“78個(gè)難以自動(dòng)化的技能”。Frey分析了他認(rèn)為將從自動(dòng)化進(jìn)程中保持“安全”的職業(yè)類別,如下:
我將嘗試從我們開(kāi)發(fā)的“深度學(xué)習(xí)畫(huà)布”的角度來(lái)解決每一個(gè)問(wèn)題。在我們的方法中,我們?nèi)诤狭恕耙瓿傻墓ぷ鳌保↗TBD)方法來(lái)識(shí)別需要解決的任務(wù)的方法,并了解通過(guò)深度學(xué)習(xí)可以增強(qiáng)的認(rèn)知限制。 在Frey的文章中,他建立了自己的觀點(diǎn),即最有可能安全的工作是涉及到人類的非理性工作。JTBD方法不僅超出了純粹的功能,還解決了人們的需求,如情緒和社會(huì)貨幣。無(wú)論深度學(xué)習(xí)系統(tǒng)如何自動(dòng)化,都需要針對(duì)這三種需求的組合。 人們似乎忽略了,頻繁更換工作對(duì)個(gè)人能力提升是沒(méi)有太大幫助的。這些細(xì)節(jié)被很多預(yù)言家所忽視。那些繼續(xù)從業(yè)者的能力變得更加強(qiáng)大,首先失去工作的低技能的民眾對(duì)使用自動(dòng)化工具不太熟練, 那些具有技能的人,獲得更先進(jìn)的技能,這成了一個(gè)惡性循環(huán)。 雖然那些沒(méi)有技能的人被迫付出代價(jià)來(lái)獲得技能。在許多情況下,沒(méi)有任何教育機(jī)構(gòu)教他們這些技能。 此外,較少的技能意味著更多的商品化。人們將被迫進(jìn)入“零工經(jīng)濟(jì)”,被迫進(jìn)入到無(wú)休止的市場(chǎng)競(jìng)爭(zhēng)中,利潤(rùn)率幾乎為零。 但是,我們來(lái)看一下Frey的列表,因?yàn)樗且粋€(gè)基于豐富的內(nèi)容來(lái)進(jìn)行更詳細(xì)的分析。 復(fù)雜的系統(tǒng)太昂貴,無(wú)法自動(dòng)化 復(fù)雜的系統(tǒng)將總是要求具有先進(jìn)技能的人員來(lái)編排。然而,這并不意味著將有更少的自動(dòng)化能夠?qū)崿F(xiàn)這一活動(dòng)。 事實(shí)上,人們應(yīng)該期望公司能夠利用盡可能多的自動(dòng)化來(lái)加速工作。與其他競(jìng)爭(zhēng)對(duì)手相比,特斯拉和SpaceX是高度自動(dòng)化的公司。 發(fā)現(xiàn)自動(dòng)化過(guò)程過(guò)于昂貴的公司可能是不知道如何利用自動(dòng)化來(lái)降低開(kāi)發(fā)成本。 只有人類才能欣賞的創(chuàng)造性付出 這與以前類似,但涉及更多的藝術(shù)性付出。在很多好萊塢科幻大片中,我們繼續(xù)使用越來(lái)越先進(jìn)的自動(dòng)化來(lái)降低成本。電影制作人員不再需要雇傭額外的軍隊(duì)拍攝大規(guī)模的戰(zhàn)斗場(chǎng)面。 這些都是通過(guò)CGI模擬技術(shù)完成的。有一段時(shí)間,電影要具有史詩(shī)感,其造價(jià)成本太貴了,但今天這不再是一個(gè)問(wèn)題。 當(dāng)然,我們會(huì)讓創(chuàng)意人士繼續(xù)推動(dòng)發(fā)展,但所需的人力資源將會(huì)繼續(xù)減少。在未來(lái),我們甚至可能不需要電影演員,只是使用CGI演唱的著名演員。事實(shí)上,如果我們看到同樣的面孔而感到無(wú)聊,那我們可以生成任意的面孔。 人與人互動(dòng)產(chǎn)生情緒反應(yīng) Frey描述的大部分內(nèi)容(即微笑,擁抱,吻,按摩等)通常都不付錢。事實(shí)上,在許多國(guó)家,支付這些“人際互動(dòng)”將被視為違法。 需要以人為本的推理決策 人類像看門狗一樣防范失控的自動(dòng)化。我認(rèn)為,如果政府實(shí)行這樣的規(guī)定,這種工作就不會(huì)消失。就像加油站服務(wù)員一樣。某些國(guó)家需要它,盡管不是絕對(duì)必要的。不過(guò),這種立法可以讓很多人上崗。 需要人類的復(fù)雜翻譯 例如:醫(yī)生、數(shù)據(jù)分析師、法官、企業(yè)高管、隱私權(quán)倡導(dǎo)者、人際關(guān)系策略、分娩協(xié)助、家譜測(cè)繪等。 這與之前的類別差不多。它只是在頂部而不是底部的監(jiān)督。 然而,它涉及人類對(duì)機(jī)器的需求,以便其他人可以理解(并接受)機(jī)器的結(jié)論。 然而,這可能不會(huì)改變,因?yàn)榉梢呀?jīng)確定人們需要這些工作。 我們不能讓非人類的法官將人們送去終身監(jiān)禁或死囚牢房。 需要人文關(guān)懷的情況 例如:教學(xué) Frey在這個(gè)類別中提供的例子似乎都圍繞著教育。不過(guò),我認(rèn)為教育正在大規(guī)模的通過(guò)互聯(lián)網(wǎng),教育只會(huì)在虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)和人文素養(yǎng)上變得越來(lái)越好。這是因?yàn)槲覀兛梢越⒏嗟幕?dòng)環(huán)境,可以為更多的學(xué)生提供更多的質(zhì)量水平教學(xué),這比普通老師好很多倍。 我們目前的教育實(shí)踐中存在的問(wèn)題是,課堂教學(xué)模式都是被動(dòng)傾聽(tīng)。我們需要爭(zhēng)取更多的學(xué)生參與主動(dòng)學(xué)習(xí)模式。學(xué)生學(xué)得更好并不是因?yàn)槁?tīng)講而是實(shí)踐。創(chuàng)造高素質(zhì)教育的專業(yè)知識(shí)將會(huì)得到滿足。這將需要深入了解互動(dòng)技術(shù),了解人的行為和教學(xué)方法。深度學(xué)習(xí)發(fā)揮作用的是其對(duì)人類行為作出反應(yīng)的能力,這對(duì)于有效的教學(xué)至關(guān)重要。 防止黑客方面,人類的忠誠(chéng)度遠(yuǎn)比數(shù)字化機(jī)器高 例如:保護(hù)貴賓,保持機(jī)密,個(gè)人信徒,維護(hù)企業(yè)信息,顧問(wèn),游說(shuō)者,機(jī)器人抵抗組織領(lǐng)導(dǎo)人。 相反,Blockchain系統(tǒng)已經(jīng)被證明是防黑客的,而不是具有可以被“社會(huì)設(shè)計(jì)”的人類元素的系統(tǒng)。 人對(duì)人的評(píng)估 示例:股票市場(chǎng),投票,政府政策,違反政策的行為,購(gòu)買,采購(gòu)代理,評(píng)級(jí)機(jī)構(gòu),測(cè)量和民意調(diào)查。 我們已經(jīng)有了系統(tǒng),在我們應(yīng)該關(guān)注的焦點(diǎn)上做出各種各樣的“估值”。Facebook管理我們的閱讀清單。亞馬遜推薦我們可能喜歡的產(chǎn)品。Google過(guò)濾我們的搜索結(jié)果。AI越來(lái)越多地為我們做出決定。我們已經(jīng)習(xí)慣了像GPS這樣的機(jī)器給我們指示,我們已經(jīng)失去了所有的方向感。 我們?cè)谶@個(gè)領(lǐng)域可能會(huì)看到的是,Blockchain技術(shù)將確保承擔(dān)公平市場(chǎng)或民主進(jìn)程的許多互動(dòng)的透明度和完整性。今天,很多這些進(jìn)程都是獲得很少的收益。人與人之間的估值不應(yīng)該專門用于人類,而應(yīng)該通過(guò)透明的集體方式來(lái)完成。這里的原因是因?yàn)槿祟愑袆?dòng)機(jī)來(lái)與系統(tǒng)比賽。 在人工智能經(jīng)濟(jì)中,取得他人的信任變得越來(lái)越難。機(jī)器智能將變得復(fù)雜到足以讓工作場(chǎng)所的許多人作為冒名頂替者。 讓我們誠(chéng)實(shí)的說(shuō),為什么人們得到的報(bào)酬超過(guò)了他們應(yīng)得的薪水,是由于人類如何評(píng)估員工的價(jià)值是非常低效的。 人類控制機(jī)器人的位置 例如:所有者和經(jīng)理、軟件開(kāi)發(fā)人員、系統(tǒng)工程師、產(chǎn)品設(shè)計(jì)師、機(jī)器人維護(hù)者、出售機(jī)器人的拍賣商。 這是與之前的3個(gè)主題相同的主題。也就是說(shuō),自動(dòng)化作為增強(qiáng)人類工作的工具。 總之,列表可以進(jìn)一步簡(jiǎn)化為:
這是將來(lái)存在的五類看似安全的工作。支付某人以外的工作可能是非法的。另一方面,除了“人體安全閥”外,所有其他工作都需要高水平的技能。未來(lái)的工作需要對(duì)人類和機(jī)器有深刻的了解,正是由于人與機(jī)器之間的這種相互,工作才將存在。 我認(rèn)為一些值得欣賞的是,深度學(xué)習(xí)是一種像人類直覺(jué)的技術(shù)。與傳統(tǒng)的AI技術(shù)相比,它是一種相反的技術(shù),專注于推理,同時(shí)還保留語(yǔ)義的差距。然而,人類的能力被困在巖石和硬的地方,人工直覺(jué)與人為推理之間。這是很多人似乎正在弄清楚什么工作是安全的,什么不是。我們不要陷入這樣的幻想:獨(dú)特的人類直覺(jué)讓我們自以為是安全的,而不會(huì)被自動(dòng)化所取代。 隨著深度學(xué)習(xí)的出現(xiàn),沒(méi)有多少工作是安全的。我們必須正視這個(gè)問(wèn)題,這樣我們才能在研究經(jīng)濟(jì)體制的核心問(wèn)題上有一個(gè)初步的開(kāi)端。AI可能會(huì)破壞資本主義制度,不幸的是我們不會(huì)就什么取代它開(kāi)始認(rèn)真的討論。嚴(yán)峻的現(xiàn)實(shí)是,新興的人工智能經(jīng)濟(jì)為高技能人士所存在,其他人并不適用。 來(lái)源:Intuition Machine(機(jī)器人圈做了適當(dāng)?shù)膬?nèi)容修改) 作者:Carlos E. Perez |
|
來(lái)自: timtxu > 《時(shí)尚科技》