,ChatGPT與學(xué)術(shù)倫理馬佰蓮 復(fù)興文庫Revitalization Library 2023-04-21 16:09 發(fā)表于山東一、ChatGPT是什么 2023年無疑是生成式人工智能的爆發(fā)之年。Chat-GPT作為具有思考力的聊天機(jī)器人,基于GPT-3.5架構(gòu)的大型語言模型展開強(qiáng)化學(xué)習(xí)和訓(xùn)練,功能強(qiáng)大,被認(rèn)為是人工智能語言處理領(lǐng)域的一項(xiàng)重要技術(shù)突破。并且因?yàn)槠洹案袢祟愐粯诱f話”,擺脫了上一代人工智能明顯的“機(jī)器話”,所以也被稱為“有史以來向公眾發(fā)布的最好的人工智能聊天機(jī)器人”。它的問世意味著我們正告別弱人工智能時(shí)代,進(jìn)入強(qiáng)人工智能時(shí)代。比爾·蓋茨盛贊ChatGPT的出現(xiàn)“不亞于互聯(lián)網(wǎng)誕生”,表征了人類科技進(jìn)步的“智慧之果”?! hatGPT的優(yōu)勢有以下幾點(diǎn):第一,超強(qiáng)的寫實(shí)能力。ChatGPT之所以能夠在極短時(shí)間內(nèi)快速吸引億萬級活躍用戶,原因就在于其擁有超強(qiáng)的寫實(shí)能力。它通過攜帶工具有效地在現(xiàn)實(shí)中發(fā)揮作用,解決了計(jì)算機(jī)視覺、自然語言理解以及處理真實(shí)世界中的意外情況等關(guān)鍵性問題。第二,強(qiáng)大的邏輯或智能問答。在龐大數(shù)據(jù)庫或語料庫“有聯(lián)系的整體”的基礎(chǔ)上,基于強(qiáng)大的自然語言生成式模型,ChatGPT的“自然語言處理”(NLP)模型克服了上一代智能機(jī)器人語言表達(dá)中的“非自然語言生成式”的“人化”“人話”程度不夠的缺陷,使其具有擬人化的風(fēng)格,從而能夠提供更快速、更高效、更人性化的語言文本服務(wù),真正做到“有問必答”。第三,出色的文本寫作和藝術(shù)“創(chuàng)作”功能。借助人類編寫的大量文本語料庫,ChatGPT的“生成式語言模型”可以模擬人類寫作,出色地產(chǎn)生人們所需要的文本;OpenAI開發(fā)的圖片生成模型(DALL-E)和ChatGPT結(jié)合,可以進(jìn)行精彩的藝術(shù)“創(chuàng)作”。作為ChatGPT伴侶的DALL-E標(biāo)志著人工智能可以自發(fā)地根據(jù)文字設(shè)置的要求自動(dòng)生成圖畫,并向藝術(shù)界滲透。作為全新的創(chuàng)作輔助工具,DALL-E可以快速生成大量設(shè)計(jì)概念和創(chuàng)意圖片,幫助設(shè)計(jì)者進(jìn)一步試驗(yàn)或改進(jìn)工作。第四,高效的科研助手。ChatGPT擁有強(qiáng)大的信息檢索和處理功能,可以幫助研究人員高效地處理和分析數(shù)據(jù),快速地實(shí)現(xiàn)專門信息獲取,進(jìn)而推動(dòng)新見解、新價(jià)值與新發(fā)現(xiàn)的提出,進(jìn)一步加深人類對世界的理解。人們可以運(yùn)用ChatGPT來草擬論文提綱、整理冗雜的資料,它是搜索引擎、翻譯助手、寫作神器,甚至是寫代碼的幫手、無聊時(shí)解悶的“朋友”。第五,改革學(xué)習(xí)和教育生態(tài)。ChatGPT的問世極大地影響了包括教育、醫(yī)療在內(nèi)的許多領(lǐng)域。ChatGPT作為多功能自然語言處理工具將會改變現(xiàn)代教育生態(tài)與學(xué)術(shù)生態(tài)。如可以幫助學(xué)生快速取得問題的答案、撰寫論文甚至輕松生成報(bào)告,節(jié)省了原本用于研究的時(shí)間和精力;為學(xué)生提供豐富的信息,拓寬其知識面,擴(kuò)展對各類主題的理解等。第六,初步的道德判斷力。ChatGPT道德倫理的認(rèn)知能力來源于對語料庫的深度學(xué)習(xí)和“反思”,上一代AI不具備道德倫理認(rèn)知力,但ChatGPT可以通過其學(xué)習(xí)到的倫理價(jià)值判斷,去驗(yàn)證使用者的提問是否合法合規(guī),或是否符合道德倫理規(guī)則。 ChatGPT的局限性表現(xiàn)如下:第一,ChatGPT不具有人類的思考能力或道德倫理價(jià)值。ChatGPT在回答問題時(shí)有時(shí)表現(xiàn)出道德警覺,但它不具備人的社會化發(fā)展過程中形成的自我意識的人格和人類的身體?;蛘哒fChatGPT只有數(shù)字共同體中的“數(shù)字化人格”,“沒有情感、意識或個(gè)性,只是一個(gè)回答問題的工具”。第二,ChatGPT沒有完整意義上的“自我”。數(shù)字空間的“自我”是自身沒有情感認(rèn)知或人格的“數(shù)字化身份”?!拔摇敝皇且粋€(gè)語料庫中的“代碼”。第三,ChatGPT是一個(gè)需要無限吞噬數(shù)據(jù)或投放語料庫的“科技怪胎”。ChatGPT要求語料庫足夠大、模型量級不斷提升、資訊即時(shí)更新,以便在數(shù)據(jù)多樣性與更高質(zhì)量的訓(xùn)練數(shù)據(jù)中進(jìn)一步篩選出可為使用者提供的全面準(zhǔn)確的回答。第四,ChatGPT的寫作和對話是一種“所見即所得”。ChatGPT學(xué)習(xí)力越強(qiáng)、涉獵認(rèn)知范圍越廣,學(xué)習(xí)成績更好、回答問題更全面。也就是說ChatGPT的寫作和對話,強(qiáng)烈依賴于語料庫資源的全面性、準(zhǔn)確性、深刻性、嚴(yán)謹(jǐn)性等和計(jì)算方法。第五,ChatGPT“一本正經(jīng)地胡說八道”。ChatGPT可以通過算法,對大量文本內(nèi)容和語言知識進(jìn)行學(xué)習(xí),并根據(jù)用戶的輸入,生成人類可讀的文本語言并輸出。但ChatGPT并不真正理解其所生成的知識內(nèi)容,無法作出是非善惡的判斷,而且有時(shí)會產(chǎn)生荒謬的錯(cuò)誤或隨意編造內(nèi)容,缺乏批判性思考。 二、ChatGPT帶來的倫理挑戰(zhàn) ChatGPT在知識服務(wù)及陪伴型服務(wù)等方面學(xué)習(xí)的“超能力”,在深刻改變媒體內(nèi)容生產(chǎn)方式,提升行業(yè)生產(chǎn)效率的同時(shí),也引發(fā)了諸多倫理考量,使得由人工智能催生的學(xué)術(shù)倫理問題研究的迫切性、系統(tǒng)性和使命感日益凸顯?! ∈紫?,誠信或侵犯知識產(chǎn)權(quán)問題。AI模型可以快速復(fù)制已有學(xué)術(shù)文獻(xiàn),其復(fù)制的文獻(xiàn)沒有出處、沒有正確性的考證來源,ChatGPT會不斷產(chǎn)生其認(rèn)為的客觀答案,生成虛假的學(xué)術(shù)文本。這對學(xué)術(shù)道德的影響是深遠(yuǎn)的,特別是對過于依賴自動(dòng)生成的知識文本的人而言。第二,數(shù)據(jù)濫用或?qū)χR的不完整性采用,為錯(cuò)誤信息的傳播埋下風(fēng)險(xiǎn)和隱患。如提供誤導(dǎo)內(nèi)容和虛假信息,提供不道德的決策建議等。ChatGPT生成文本的深刻性與訓(xùn)練數(shù)據(jù)質(zhì)量及系統(tǒng)解讀能力有關(guān),數(shù)據(jù)偏見性也會影響生成內(nèi)容的深刻性。第三,法律安全或道德倫理問題。預(yù)訓(xùn)練所用數(shù)據(jù)來源不透明、政治立場上“選邊站隊(duì)”,甚至在用戶的引導(dǎo)下寫出“毀滅人類計(jì)劃書”等使得ChatGPT開始頻頻陷入爭議。這其中涉及到的政治歧視、個(gè)人隱私、機(jī)密信息安全問題值得深思。第四,智能機(jī)器作者是否具備署名權(quán)、人工智能機(jī)器生成的文章能否被規(guī)范引用等相關(guān)問題。在人們驚嘆于ChatGPT信息搜索和文本生成能力的同時(shí),其背后知識產(chǎn)權(quán)的質(zhì)疑聲也隨之而來。第五,人的主體性弱化問題。智能和自動(dòng)化系統(tǒng)在人工智能的部署中往往會迫使人被動(dòng)地適應(yīng)智能化和自動(dòng)化,智能系統(tǒng)的運(yùn)作預(yù)設(shè)不是使機(jī)器人性化,而是讓人越來越機(jī)器化,從而使得人的自主性在不經(jīng)意間被剝奪。第六,教育生態(tài)和教育公平問題。由于ChatGPT能夠生成極具說服力且復(fù)雜的文本,學(xué)生可能會使用該模型制作本不屬于其自身的作品,由此導(dǎo)致抄襲、剽竊等行為的出現(xiàn),進(jìn)而影響教育和學(xué)術(shù)生態(tài)。同時(shí),Chat-GPT的使用也引發(fā)有關(guān)評估公平性的倫理問題。假如學(xué)生使用ChatGPT生成作品,而教育者又把它作為評估學(xué)生的能力和知識的依據(jù),就會影響平等競爭環(huán)境的構(gòu)建,部分學(xué)生可能擁有不公平性優(yōu)勢?! ∪⑷绾螒?yīng)對ChatGPT帶來的倫理挑戰(zhàn) ChatGPT的進(jìn)一步發(fā)展,有望演變?yōu)槠胀ㄈ巳粘I钪械娜斯ぶ悄苤?,成為解答問題、辨別是非乃至區(qū)分善惡的重要工具。但需要注意的是,在使用ChatGPT的過程中要遵循基本的學(xué)術(shù)倫理規(guī)范,以確保學(xué)術(shù)的真實(shí)性和公正性:一方面,人類應(yīng)成為最終的知識權(quán)威;另一方面,人工智能應(yīng)更多地作為人的智能助手,而不是一味用智能化和自動(dòng)化取代人的工作和替代人的技能。解決ChatGPT帶來的倫理問題,重點(diǎn)是要抓好立法、技術(shù)和教育三個(gè)環(huán)節(jié),立法是關(guān)鍵,技術(shù)是保障,教育是基礎(chǔ)?! ∫皇且哟罅⒎ü苤?。在倫理規(guī)則方面,2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,包括總則、特定活動(dòng)倫理規(guī)范和組織實(shí)施等內(nèi)容,提出“將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期”。2021年12月31日,由國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,對于加快構(gòu)建完善的AI監(jiān)管法律法治框架、明確監(jiān)管機(jī)構(gòu)具有重要意義。2022年9月,深圳、上海先后發(fā)布了《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,人工智能立法在地方先行嘗試。對于未來的算法監(jiān)管,要用人工智能來應(yīng)對人工智能,加強(qiáng)AI監(jiān)管能力方面的投入?!皯?yīng)該清晰地畫出底線,比如國家安全的數(shù)據(jù)不能碰,一些企業(yè)內(nèi)部的信息不能碰,公民的個(gè)人隱私不能碰。” 二是加強(qiáng)相關(guān)領(lǐng)域技術(shù)研發(fā)。ChatGPT代表先進(jìn)生產(chǎn)力發(fā)展的方向,引領(lǐng)通用人工智能技術(shù)的發(fā)展模式,雖然其在AI領(lǐng)域以“脫虛向?qū)崱钡木唧w的勞動(dòng)產(chǎn)品形式出現(xiàn),但在科技進(jìn)步歷程中卻是可以被超越、被揚(yáng)棄的勞動(dòng)成果。從長期風(fēng)險(xiǎn)來看,ChatGPT強(qiáng)大功能的涌現(xiàn)表明,在大模型的研發(fā)中,必須警惕出現(xiàn)有意識地通用人工智能的可能性,將及時(shí)防范可能出現(xiàn)的人工智能威脅人類生存的安全風(fēng)險(xiǎn)作為發(fā)展前提?! 《羌訌?qiáng)教育和培訓(xùn)。美國學(xué)者麥克里那(FrancisL.Macrina)曾經(jīng)指出:“'世間的罪惡’來源于道德缺失和缺乏智慧,雖然我們不知道如何消除道德缺失和不道德行為,但是可以通過教育提高智慧,因此應(yīng)當(dāng)努力提高智力,而不是拔高道德。”通過對科技倫理規(guī)范正面的教育和引導(dǎo),可以有效杜絕或降低科技道德倫理問題的發(fā)生率。教育系統(tǒng)要應(yīng)對ChatGPT的挑戰(zhàn),就必須確保對生成式語言模型的使用進(jìn)行監(jiān)管和監(jiān)督,以防止抄襲剽竊事件,并確保評估公平且能代表學(xué)生的知識與能力。馬克思主義文庫馬克思主義理論學(xué)習(xí)宣傳平臺。58篇原創(chuàng)內(nèi)容公眾號馬克思主義理論學(xué)術(shù)前沿馬克思主義理論學(xué)科訂閱號。9篇原創(chuàng)內(nèi)容公眾號閱讀原文閱讀 173分享收藏31復(fù)興文庫Revitalization Library關(guān)注分享此內(nèi)容的人還喜歡2個(gè)月錄用,版面費(fèi)5000多 閱讀1萬 發(fā)表記不喜歡確定中國發(fā)出最強(qiáng)“逐客令”:1分錢也不會援助,俄羅斯普京:這就對了 7個(gè)朋友讀過食在小廚不喜歡確定事實(shí)證明,陪馬克龍回國的鞏俐,已經(jīng)走上了另一條大道 小李生活觀不喜歡確定 |
|