人工智能視角 OpenAI的新聊天機(jī)器人因其令人印象深刻的回答而獲得了關(guān)注,但其中有多少是可信的?多少是對(duì)人類思維判斷是危險(xiǎn)的。讓我們來(lái)探索ChatGPT的黑暗面。 ChatGPT是一個(gè)強(qiáng)大的人工智能聊天機(jī)器人,它能迅速給人留下深刻印象,然而很多人都指出它有一些嚴(yán)重的隱患。問(wèn)它任何問(wèn)題,你都會(huì)得到一個(gè)聽(tīng)起來(lái)像是人類寫的答案,它的知識(shí)和寫作技巧都是從互聯(lián)網(wǎng)上的大量信息中學(xué)習(xí)的。然而,就像互聯(lián)網(wǎng)一樣,真理和事實(shí)并不總是給定的,ChatGPT在這方面犯了錯(cuò)誤。隨著ChatGPT將改變我們的未來(lái),這里有一些最大的擔(dān)憂。 ChatGPT是一個(gè)大型語(yǔ)言學(xué)習(xí)模型,旨在模仿人類對(duì)話。它能記住你過(guò)去對(duì)它說(shuō)過(guò)的話,并能在錯(cuò)誤時(shí)自我糾正。它以類似人類的方式寫作,并且擁有豐富的知識(shí),因?yàn)樗窃诨ヂ?lián)網(wǎng)上的各種文本上訓(xùn)練出來(lái)的,如維基百科、博客文章、書籍和學(xué)術(shù)文章。學(xué)習(xí)如何使用ChatGPT很容易,但更具挑戰(zhàn)性的是找出它最大的問(wèn)題是什么。
虛假的偽裝 它在數(shù)學(xué)方面經(jīng)常失敗,似乎不能回答簡(jiǎn)單的邏輯問(wèn)題,甚至?xí)フ撟C完全不正確的事實(shí)。正如社交媒體用戶可以證明的那樣,ChatGPT可能不止一次出錯(cuò)。ChatGPT有時(shí)會(huì)寫出聽(tīng)起來(lái)合理但不正確或無(wú)意義的答案。這種事實(shí)和虛構(gòu)的 "幻覺(jué)",正如一些科學(xué)家所稱,在涉及醫(yī)療建議這樣的事情時(shí)尤其危險(xiǎn)。 與Siri或Alexa等其他人工智能助手不同,Chat GPT并不使用互聯(lián)網(wǎng)來(lái)定位答案。相反,它一個(gè)字一個(gè)字地構(gòu)建句子,根據(jù)其訓(xùn)練選擇最可能的 "標(biāo)記",應(yīng)該在接下來(lái)。換句話說(shuō),ChatGPT是通過(guò)一系列的猜測(cè)得出答案的,這也是它能把錯(cuò)誤的答案當(dāng)作完全正確的答案來(lái)論證的部分原因。雖然它擅長(zhǎng)解釋復(fù)雜的概念,使其成為一個(gè)強(qiáng)大的學(xué)習(xí)工具,但重要的是不要相信它所說(shuō)的一切。ChatGPT并不總是正確的--至少,現(xiàn)在還不是。 2. 人性的偏見(jiàn) ChatGPT是在全世界人類的集體協(xié)作中訓(xùn)練出來(lái)的,無(wú)論過(guò)去還是現(xiàn)在。這意味著存在于數(shù)據(jù)中的相同偏見(jiàn)也會(huì)出現(xiàn)在模型中。事實(shí)上,用戶已經(jīng)展示了ChatGPT如何產(chǎn)生一些可怕的答案,例如,一些歧視婦女的答案。但這只是冰山一角;它可以產(chǎn)生對(duì)一系列少數(shù)民族群體極為有害的答案。由于有可能對(duì)人造成傷害,你可以說(shuō),在研究和解決這些問(wèn)題之前,ChatGPT不應(yīng)該向公眾發(fā)布。 人性的偏見(jiàn) 3. 對(duì)學(xué)生英語(yǔ)學(xué)習(xí)的挑戰(zhàn) 你可以要求ChatGPT校對(duì)你的寫作,或指出如何改進(jìn)一個(gè)段落。另外,你也可以把自己完全排除在外,讓ChatGPT為你寫點(diǎn)東西。老師們已經(jīng)試驗(yàn)過(guò)把英語(yǔ)作業(yè)交給ChatGPT,得到的答案甚至比他們的許多學(xué)生能做的還要好。從寫求職信到描述著名文學(xué)作品中的主要主題,ChatGPT都能毫不猶豫地完成。這就引出了一個(gè)問(wèn)題:如果ChatGPT可以為我們寫作,那么學(xué)生在未來(lái)是否需要學(xué)習(xí)寫作?這似乎是一個(gè)存在的問(wèn)題,但當(dāng)學(xué)生開始使用ChatGPT幫助寫作文時(shí),學(xué)校將不得不迅速想出一個(gè)答案。近年來(lái),人工智能的快速部署將震驚許多行業(yè),而教育只是其中之一。 4. 它可以造成現(xiàn)實(shí)世界的傷害 早些時(shí)候,我們提到了ChatGPT的錯(cuò)誤信息如何造成現(xiàn)實(shí)世界的傷害,最明顯的例子是錯(cuò)誤的醫(yī)療建議。也有其他的擔(dān)憂。虛假的社交媒體賬戶在互聯(lián)網(wǎng)上構(gòu)成了一個(gè)巨大的問(wèn)題,隨著人工智能聊天機(jī)器人的引入,互聯(lián)網(wǎng)詐騙將變得更容易實(shí)施。虛假信息的傳播是另一個(gè)令人擔(dān)憂的問(wèn)題,尤其是當(dāng)ChatGPT讓錯(cuò)誤的答案聽(tīng)起來(lái)也令人信服地正確時(shí)。 ChatGPT產(chǎn)生答案的速度并不總是正確的,這已經(jīng)給Stack Exchange造成了問(wèn)題,該網(wǎng)站的用戶可以發(fā)布問(wèn)題并獲得答案。在ChatGPT發(fā)布后不久,由于大量的答案是錯(cuò)誤的,ChatGPT的答案被禁止在該網(wǎng)站上出現(xiàn)。如果沒(méi)有足夠的人類志愿者來(lái)整理積壓的問(wèn)題,就不可能保持高水平的高質(zhì)量答案,從而對(duì)網(wǎng)站造成損害。 5. OpenAI擁有所有的控制權(quán) 巨大的權(quán)力伴隨著巨大的責(zé)任,而OpenAI擁有很大的權(quán)力。它是第一批真正撼動(dòng)世界的人工智能公司之一,它的人工智能模型不是一個(gè),而是多個(gè),包括Dall-E 2、GPT-3,以及現(xiàn)在的ChatGPT。 OpenAI選擇用什么數(shù)據(jù)來(lái)訓(xùn)練ChatGPT,以及如何處理負(fù)面后果。無(wú)論我們是否同意這些方法,它都會(huì)根據(jù)自己的目標(biāo)繼續(xù)開發(fā)這項(xiàng)技術(shù)。雖然OpenAI認(rèn)為安全是一個(gè)高度優(yōu)先事項(xiàng),但關(guān)于模型是如何創(chuàng)建的,我們有很多不知道。無(wú)論你認(rèn)為代碼應(yīng)該開放源代碼,還是同意它應(yīng)該將部分代碼保密,我們都沒(méi)有什么辦法。 到最后,我們能做的就是相信OpenAI會(huì)負(fù)責(zé)任地研究、開發(fā)和使用ChatGPT。另外,我們可以倡導(dǎo)更多的人對(duì)人工智能的發(fā)展方向有發(fā)言權(quán),與使用它的人分享人工智能的力量。 6. 應(yīng)對(duì)人工智能的最大問(wèn)題 ChatGPT是OpenAI的最新開發(fā)成果,有很多值得興奮的地方。但除了它的直接用途之外,還有一些值得了解的嚴(yán)重問(wèn)題。 OpenAI承認(rèn),ChatGPT可能會(huì)產(chǎn)生有害和有偏見(jiàn)的答案,更不用說(shuō)它將事實(shí)與虛構(gòu)相混合的能力。對(duì)于這樣一項(xiàng)新技術(shù),我們很難預(yù)測(cè)還會(huì)出現(xiàn)什么問(wèn)題。所以在那之前,請(qǐng)享受探索ChatGPT的樂(lè)趣,并小心不要相信它所說(shuō)的一切。 |
|
來(lái)自: 天承辦公室 > 《008矩陣進(jìn)化》