「對(duì)學(xué)生有負(fù)面影響」,這么大責(zé)任 OpenAI 可擔(dān)不起。 語言生成模型來了,學(xué)校的作業(yè)會(huì)不會(huì)從此變得形同虛設(shè)?近日,紐約市教育官員宣布禁止學(xué)生在公立學(xué)校使用 ChatGPT 的事件引發(fā)了爭(zhēng)論。語言模型自動(dòng)生成的內(nèi)容會(huì)「參照」現(xiàn)有作品,產(chǎn)出的速度又幾乎無限,人們對(duì)其的擔(dān)憂已經(jīng)蔓延到了 AI 學(xué)界自身,全球知名機(jī)器學(xué)習(xí)會(huì)議之一的 ICML 最近也宣布禁止發(fā)表包含由 ChatGPT 和其他類似系統(tǒng)生成內(nèi)容的論文,以免出現(xiàn)「意外后果」。對(duì)于這樣的情況,ChatGPT 的提出者 OpenAI 已宣布正在努力開發(fā)「緩解措施」,幫助人們檢測(cè)由 AI 自動(dòng)生成的文本。「我們將 ChatGPT 作為新研究的預(yù)覽技術(shù),希望能從現(xiàn)實(shí)世界的應(yīng)用中進(jìn)行學(xué)習(xí)。我們認(rèn)為這是開發(fā)和部署功能強(qiáng)大、安全的 AI 系統(tǒng)的關(guān)鍵部分。我們會(huì)不斷吸取反饋和經(jīng)驗(yàn)教訓(xùn),」公司發(fā)言人表示?!窸penAI 一直呼吁在使用 AI 生成的文本時(shí)要保持透明。我們的使用條款要求用戶在使用我們的 API 和創(chuàng)意工具時(shí),首先對(duì)其面向的人群負(fù)責(zé)……我們期待與教育工作者合作制定有效的解決方案,幫助教師和學(xué)生等人群尋找從 AI 中受益的方法?!?/span>如果出現(xiàn)了能夠區(qū)分人類和機(jī)器產(chǎn)生內(nèi)容的算法,生成模型在學(xué)術(shù)界的使用方式或許會(huì)出現(xiàn)改變。學(xué)校將能夠更有效地限制人工智能生成的論文,而如果人們的態(tài)度發(fā)生轉(zhuǎn)變,轉(zhuǎn)而期待這些工具能夠幫助學(xué)生,或許我們也可以逐漸接受使用 AI 進(jìn)行輔助的方式,提高工作學(xué)習(xí)的效率。現(xiàn)在看起來,眼前還有很長(zhǎng)的一段路要走。盡管 AI 生成的文字內(nèi)容在學(xué)術(shù)會(huì)議和學(xué)校禁止機(jī)器寫論文作弊的新聞中看起來令人印象深刻,但你需要知道,與真正的人類寫作相比,它們時(shí)常缺乏真正的理解與邏輯。當(dāng)像 GPT-3 或 ChatGPT 這樣的工具通過給出令人震驚的詳細(xì)答案而讓人感到驚訝時(shí),也有冷靜的專家表示這證明了模型能夠編碼知識(shí),但當(dāng)它們無法正確處理事情時(shí),給出的答案往往很離譜。波莫納學(xué)院 (Pomona College) 經(jīng)濟(jì)學(xué)教授 Gary Smith 提醒我們,不要上當(dāng)。在一篇專欄文章中,Gary Smith 展示了幾個(gè) GPT-3 無法有效推理和回答問題的例子,「如果你嘗試使用 GPT-3,你最初的反應(yīng)可能是驚訝——似乎是在與一個(gè)非常聰明的人進(jìn)行真正的對(duì)話。然而深入探究后,你很快就會(huì)發(fā)現(xiàn)雖然 GPT-3 可以用令人信服的方式將單詞串在一起,但它并不知道單詞的含義?!?/span>「預(yù)測(cè) down 這個(gè)詞有可能跟在 fell 這個(gè)詞后面,并不要求對(duì)這兩個(gè)詞的含義有任何理解。只是通過統(tǒng)計(jì)層面的計(jì)算,AI 就能認(rèn)為這些詞經(jīng)常在一起。因此,GPT-3 很容易做出完全錯(cuò)誤,但又武斷的聲明。」OpenAI 在 2022 年 11 月發(fā)布了 ChatGPT,這是一個(gè)較新的模型,基于 GPT-3 進(jìn)行了改進(jìn)。盡管如此,它仍然存在著這些相同的問題,就像所有現(xiàn)有的語言模型一樣。曾幾何時(shí),AI 生成的文字內(nèi)容還是「一眼假」,但自從 ChatGPT 橫空出世以來,這種分辨工作是越來越難做了。在教育領(lǐng)域,ChatGPT 的爭(zhēng)論主要圍繞作弊的可能性展開。在谷歌上搜索「ChatGPT 寫論文」,你能發(fā)現(xiàn)大量教育工作者、記者和學(xué)生通過使用 ChatGPT 完成家庭作業(yè)和標(biāo)準(zhǔn)化論文測(cè)試來試水的例子。《華爾街日?qǐng)?bào)》的專欄作家曾使用 ChatGPT 撰寫了一篇能拿及格分的 AP 英語論文,而《福布斯》記者則利用它在 20 分鐘內(nèi)完成了兩篇大學(xué)論文。亞利桑那州立大學(xué)教授 Dan Gillmor 在接受衛(wèi)報(bào)采訪時(shí)回憶說,他嘗試給 ChatGPT 布置一道給學(xué)生的作業(yè),結(jié)果發(fā)現(xiàn) AI 生成的論文也可以獲得好成績(jī)。目前,已經(jīng)有開發(fā)者制作了面向 ChatGPT 生成內(nèi)容的檢測(cè)工具——「GPTZero」,只需要將內(nèi)容粘貼在輸入框,就能在幾秒鐘之內(nèi)得到分析結(jié)果,快速檢測(cè)出一篇文章是 ChatGPT 還是人工撰寫的。網(wǎng)友評(píng):世界各地的學(xué)生看到后都哭了。 作者是普林斯頓大學(xué)的學(xué)生 Edward Tian,他利用假期的一部分時(shí)間編寫了 GPTZero。讓我們看看檢測(cè)過程,先以一段《New Yorker》的報(bào)道內(nèi)容為例(百分之百確定由人類寫作):再看一段由 ChatGPT 生成的內(nèi)容接受檢測(cè):GPTZero 應(yīng)用程序的原理是借助一些文本屬性進(jìn)行分析。首先是困惑度(perplexity),即文本對(duì)模型的隨機(jī)性,或語言模型對(duì)文本的「喜愛」程度;然后是突發(fā)度(burstiness),即機(jī)器寫作的文本在一段時(shí)間內(nèi)表現(xiàn)出的困惑度更均勻和恒定,而人類書寫的文本則不會(huì)這樣。GPTZero:「同學(xué)們,對(duì)不起!教授們,不客氣!」 據(jù)《衛(wèi)報(bào)》報(bào)道,OpenAI 目前正在開發(fā)一項(xiàng)功能,用于統(tǒng)計(jì) ChatGPT 輸出結(jié)果的「水印」,以便閱讀器可以在 AI 文本選擇中發(fā)現(xiàn)隱藏模式。在得克薩斯大學(xué)的一次演講中,OpenAI 客座研究員 Scott Aaronson 表示,公司正在研究一種通過「對(duì)輸出進(jìn)行統(tǒng)計(jì)水印」來打擊作弊的系統(tǒng)。Aaronson 說,這項(xiàng)技術(shù)將通過微妙地調(diào)整 ChatGPT 選擇的特定單詞選擇來發(fā)揮作用,讀者不會(huì)注意到這種方式,但對(duì)于任何尋找機(jī)器生成文本跡象的人來說,這在統(tǒng)計(jì)上都是可預(yù)測(cè)的。「我們實(shí)際上有一個(gè)水印方案的工作原型了,」Aaronson 補(bǔ)充道?!杆坪醣憩F(xiàn)很好——根據(jù)經(jīng)驗(yàn),幾百個(gè)詞似乎足以得到一個(gè)信號(hào):是的,這段文本來自 GPT?!?/span>雖然面臨人們的擔(dān)憂,但有關(guān) ChatGPT 的應(yīng)用也在快速鋪開。在很多場(chǎng)景中,人們不想與無法理解簡(jiǎn)單查詢的聊天機(jī)器人對(duì)話,什么都可以說上兩句的 ChatGPT 可以解決這一問題??偛课挥诙鄠惗嗟?Ada 已與 OpenAI 合作把 GPT-3.5,ChatGPT 背后的大模型應(yīng)用在了客服聊天機(jī)器人上,完成了 45 億次客戶服務(wù)交互。據(jù) The Information 報(bào)道,微軟還與 OpenAI 簽訂了獨(dú)家許可協(xié)議,并計(jì)劃將該技術(shù)整合到 Bing 搜索引擎中。ChatGPT 正在模擬真人的道路上加速前進(jìn),這場(chǎng)打假的戰(zhàn)役還會(huì)繼續(xù)下去。https://www./2023/01/09/in_brief_ai/https:///2023/01/05/as-nyc-public-schools-block-chatgpt-openai-says-its-working-on-mitigations-to-help-spot-chatgpt-generated-text/https://www./sites/rashishrivastava/2023/01/09/chatgpt-is-coming-to-a-customer-service-chatbot-near-you/https://www./technology/2022/dec/31/ai-assisted-plagiarism-chatgpt-bot-says-it-has-an-answer-for-that
|