早在 12 月,我就向我的一位也是教授的朋友展示了 ChatGPT。 “我并不擔(dān)心人文課程中的人工智能,”她說。 “完全沒有?” 她搖了搖頭?!拔抑烙行┩抡诨氐剿{皮書并禁止設(shè)備?;蛘咚麄冋谘芯靠梢栽谝黄恼轮袡z測ChatGPT的程序。但我只是想知道我們可能需要如何改變這篇文章?!?/span> 然后我們談到了蘇格拉底和他對寫作的關(guān)注。 其中一個主要原因是蘇格拉底認為寫作會導(dǎo)致人們過分依賴書面文字,而不是他們自己的記憶和理解。他認為,閱讀文本的人只能按照作者想要的方式解釋它,而不是與所提出的想法進行對話并得出自己的結(jié)論。此外,蘇格拉底擔(dān)心寫作可能被用來傳播錯誤的想法和觀點,并可能被用來操縱人們。 聽起來很耳熟?這些與人們對人工智能的許多擔(dān)憂相同。 “我以前經(jīng)歷過這種情況,”她補充道?!爱斘乙庾R到學(xué)生可以下載整篇論文時,我開始要求學(xué)生做他們上交的預(yù)寫。我改成了你在網(wǎng)上找不到的高興趣提示。現(xiàn)在我看到 ChatGPT 可以對這些高興趣提示產(chǎn)生響應(yīng),我將認真思考如何將 AI 視為一種工具。 我們一起規(guī)劃了一個解決方案,其中包括將人工智能生成的文本和學(xué)生生成的文本混合在一起。這與我在本文后面描述的內(nèi)容類似。這篇文章沒有死,但它正在改變。它將在未來幾年繼續(xù)發(fā)展。目前,人工智能的使用迫使我們問:“人工智能什么時候是一種學(xué)習(xí)工具,什么時候又在作弊? AI什么時候在幫助人作弊? 當我還是一名初中新教師時,有幾位老師警告我不要讓我的學(xué)生使用拼寫檢查。如果我們讓學(xué)生使用拼寫檢查,學(xué)生就會越來越依賴這個工具,他們會變得糟糕的拼寫者。我也有類似的擔(dān)憂。如果我們過于依賴技術(shù)來修復(fù)拼寫錯誤,學(xué)生會費心使用正確的拼寫嗎? 那個學(xué)期,我讓學(xué)生提交了一份寫作樣本。然后,我計算單詞和拼寫錯誤的數(shù)量,以找到拼寫錯誤的比率。然后,我讓學(xué)生在學(xué)期末進行手寫評估。在將初始學(xué)生樣本與學(xué)期結(jié)束時的樣本進行比較時,拼寫錯誤的數(shù)量顯著減少。事實證明,這個作弊工具實際上是為學(xué)生提供有關(guān)拼寫的即時反饋。他們不是盲目地點擊拼寫檢查,而是在內(nèi)化反饋。 我們現(xiàn)在一直使用拼寫檢查。曾經(jīng)是“作弊”的工具,現(xiàn)在是我們用來寫作的常用工具。 事實是,學(xué)生們已經(jīng)在寫作中使用人工智能。我們不傾向于將拼寫檢查視為AI。但它是智能算法的原始示例。雖然拼寫檢查軟件不如新一代人工智能先進,但它仍然依靠機器學(xué)習(xí)和模式識別來提高其準確性。某些拼寫檢查軟件還可能使用自然語言處理技術(shù)來檢測上下文錯誤,例如拼寫正確但誤用的單詞。如果多年來您對Word和Google文檔的拼寫檢查和語法檢查似乎有所改善,那是因為它們有所改善。 學(xué)生們已經(jīng)在寫作過程的每個階段使用更先進的人工智能。在進行研究時,Google中的自動填充選項可以縮小對學(xué)生的搜索范圍。在 Google 文檔中輸入內(nèi)容時,自動填充選項通常會為學(xué)生完成句子。當學(xué)生編輯他們的作業(yè)時,語法檢查會就需要更改的內(nèi)容提供建議。某些學(xué)生甚至可能會在編輯階段使用 Grammarly 來潤色他們的寫作。這里的人工智能是如此微妙,以至于我們有時會錯過它。但機器學(xué)習(xí)已經(jīng)在推動學(xué)生寫作過程的各個方面。 請注意,所有這些工具在某些時候都被認為是作弊。數(shù)學(xué)中的計算器和統(tǒng)計學(xué)中的電子表格也是如此。起初,每一次技術(shù)進步都被認為是一種作弊形式。然而,最終,這些工具成為學(xué)習(xí)和創(chuàng)造過程的基本要素。 不知何故,ChatGPT給人的感覺卻不同。作為新一代的人工智能,它建立在深度學(xué)習(xí)之上。新一代人工智能依賴于旨在反映人腦的算法。這就是 ChatGPT 感覺如此人性化的部分原因。深度學(xué)習(xí)模型從大量數(shù)據(jù)集中學(xué)習(xí),并以未明確編程的方式進行模式識別。換句話說,該算法正在學(xué)習(xí),現(xiàn)在可以進行預(yù)測并產(chǎn)生全新的想法。深度學(xué)習(xí)中的術(shù)語“深度”是指在神經(jīng)網(wǎng)絡(luò)中使用多層,允許系統(tǒng)在每一層學(xué)習(xí)和表示越來越復(fù)雜的特征。如果拼寫檢查是一層深度的,則 ChatGPT 是多層的。 因此,如果感覺 ChatGPT 比以前的 AI 更像作弊,那是因為它的功能更接近人類思維。Clippy很可愛,甚至表現(xiàn)得有點人性化,但它的語氣,但目前的聊天機器人會感覺好像你實際上是在和一個人說話。 那么,這給我們留下了作弊的啟示呢?人工智能什么時候只是一種增強學(xué)習(xí)的工具,什么時候它被選擇和取代學(xué)習(xí)過程中的一個重要部分?在連續(xù)統(tǒng)一體上思考它可能會有所幫助。我喜歡馬特·米勒(Matt Miller)的方式,其在《教科書的溝渠》(Ditch That Textbook)一書中將其概念化: 正如米勒所描述的那樣,“我們將不得不劃清界限——作為教育工作者、學(xué)校,甚至作為學(xué)區(qū)——來確定我們將允許什么,以及我們不允許什么。我喜歡最后一個關(guān)于學(xué)生將來如何使用人工智能的問題,因為它可能因任務(wù)而異。在撰寫博客文章時,我可能會咨詢 ChatGPT 以獲取想法,甚至用它來解釋定義(然后我修改和重寫它)。但是,我不希望ChatGPT寫這個。我希望它成為我自己的聲音。另一方面,我可以看到人工智能的吸引力,可以在我生成大綱后回復(fù)我的電子郵件,甚至創(chuàng)建技術(shù)寫作的初稿。事實是,我們都將以混合方式使用AI。 論文寫作的混合方法這種混合方法擺脫了擁抱人工智能或完全阻止人工智能的“非此即彼”選項。相反,它專注于明智地使用人工智能來增強學(xué)習(xí),同時也擁抱人類元素。 混合方法可能包括人工手寫和 AI 生成的書寫的混合。學(xué)生可以創(chuàng)建草圖筆記,并在交互式筆記本或日記中將繪圖和文本混合在一起。這些低技術(shù)含量的選擇側(cè)重于寫作,作為一種“讓學(xué)習(xí)可見”的方式。在這里,學(xué)生選擇老式工具,因為簡單性為更深入的思考提供了更多的靈活性。但這些學(xué)生也可能使用聊天機器人來產(chǎn)生新的想法,或者使用人工智能生成的響應(yīng),然后他們修改和放大。他們可能會使用人工智能作為起點,并在成品中添加自己獨特的聲音。這可能發(fā)生在同一個課程期間?;旌夏J较碌膶W(xué)生可以在人類和人工智能之間來回切換。 學(xué)習(xí)如何明智地使用人工智能的一部分是找到使用人工智能的最佳環(huán)境。這首先要認識到人類和機器學(xué)習(xí)的優(yōu)勢。機器學(xué)習(xí)在綜合來自多個來源的信息并生成清晰易讀的文本方面做得很好。機器學(xué)習(xí)還可以幫助編輯和構(gòu)思。但是,如果機器學(xué)習(xí)提供人工智能,那么人類則提供真正的智能。我們在聲音和語氣(尤其是幽默)方面做得很好。我們理解上下文,并且可以以同理心寫作。雖然人工智能在創(chuàng)造力方面做得很好,但我們是更好的發(fā)散思想家。以下是將人類思維與人工智能相結(jié)合的混合方法。 初步概念理解 我有時認為這是預(yù)寫。這是學(xué)生在提出問題和參與研究之前訪問他們先前知識的階段。混合方法可能從共享文檔上的 K-W-L 圖表開始。學(xué)生記下他們所知道的關(guān)于這個主題的一切。接下來,他們寫下他們想知道的有關(guān)該主題的所有信息。在這一點上,學(xué)生將使用聊天機器人(如 ChatGPT)提出問題并了解該主題,而不是進入研究。聊天機器人的動態(tài)性質(zhì)允許澄清根據(jù)學(xué)生的理解量身定制的問題。 對于這個例子,我將給出一篇社會研究論文,問:“我們有多容易受到的影響?作為他們在第一次世界大戰(zhàn)中的部隊的一部分。 所以學(xué)生可能會問,“第一次世界大戰(zhàn)的原因是什么? ChatGPT給出的答案是:
學(xué)生可能會要求 ChatGPT 簡化它,并提示“向八年級的人解釋一下”。
在這一點上,學(xué)生可能會問后續(xù)問題,比如“為什么暗殺會導(dǎo)致整個世界處于戰(zhàn)爭狀態(tài)?或者這個人對軍國主義感到困惑,問道:“你能給我舉個軍國主義的例子嗎?或者,他們關(guān)注美國并說,“美國人關(guān)心第一次世界大戰(zhàn)嗎?這可能是一個隨機的問題,比如,“在第二次世界大戰(zhàn)發(fā)生之前,他們怎么稱呼第一次世界大戰(zhàn)? 此時,學(xué)生可以添加到他們的 K-W-L 圖表中。他們可能會進行一些初步研究并觀看視頻或閱讀文章。這個過程將是動態(tài)的,體現(xiàn)的是一種深度學(xué)習(xí)。 研究在這個階段,學(xué)生將通過產(chǎn)生問題和尋找答案來參與在線研究。他們可能會從一組初始問題開始,然后通過要求聊天機器人為他們提出研究問題來放大它。在在線研究期間,他們會閱讀文章并添加到他們的研究圖表中(帶有問題、答案和引用),但也使用聊天機器人來澄清誤解。學(xué)生可能會在團隊中比較他們的信息,甚至可以完全人性化地參加蘇格拉底研討會。最后,學(xué)生將創(chuàng)建一個手繪素描筆記,顯示想法之間的聯(lián)系。換句話說,民族主義與帝國主義有什么關(guān)系? 組織想法和概述 在這個階段,學(xué)生將集思廣益并將它們組織成一個連貫的大綱。他們可能會做一個思維導(dǎo)圖或用便簽組織他們的想法。在某些時候,學(xué)生會為他們的論文創(chuàng)建一個初始大綱。為了透明起見,他們會截取最初的大綱,然后要求聊天機器人創(chuàng)建一個大綱。然后,在比較輪廓后,他們將修改自己的輪廓。學(xué)生甚至可以使用 ChatGPT 上的重新生成響應(yīng)按鈕生成多個大綱。 寫作在這個階段,學(xué)生可以采取他們的初始大綱,并要求聊天機器人生成實際文本。他們會拍攝帶有時間戳的初始屏幕截圖,然后將文本復(fù)制并粘貼到共享文檔(Google文檔)中。從這里,學(xué)生將修改文本以添加自己的聲音。他們需要添加額外的句子,甚至可能分解段落。使用他們的研究圖表,學(xué)生將添加事實和引文,然后進行解釋。最初的聊天機器人文本將是黑色的,但人類文本將是學(xué)生選擇的顏色。 編輯和修訂當學(xué)生走向復(fù)習(xí)時,他們可以參與 20 分鐘的同伴反饋過程: 編輯和修改的一個關(guān)鍵方面是如何提問,“這是如何被接受的?”或者“實際人類如何回應(yīng)這篇文章?”大多數(shù)反饋可能是人類擅長的類型,例如聲音、參與度、語氣和清晰度。但學(xué)生也可以要求聊天機器人提供具體反饋。它可能是這樣的,“我怎樣才能讓我的論點更好?”或者“我可以做一些改變來使文章更流暢。學(xué)生可能會與老師進行一對一的寫作會議,但隨后會回到 AI 以獲得額外的有針對性的反饋。 添加多媒體如果學(xué)生想改變他們的論文,他們可以通過做視頻或音頻論文來增加人情味。您可以給學(xué)生提供視頻論文的示例,例如新媒體上的一些頻道。在這里,他們將圖像、視頻和文本與獨特的人聲相結(jié)合。他們可能會繪制一些幻燈片來說明關(guān)鍵點,甚至以Common Craft視頻的風(fēng)格制作動畫。同樣,這種方法將技術(shù)與人情味融合在一起。但學(xué)生可以使用 AI 作為工具,根據(jù)命令提示符生成圖像。他們還可能會要求聊天機器人提出圖像或視頻的想法,以與他們的聲音一起使用。 問責(zé)制呢?請注意,這種方法將問責(zé)制從監(jiān)督和懲罰轉(zhuǎn)變?yōu)樾湃魏屯该鞫?。學(xué)生使用 AI 生成的文本,但隨后對其進行屏幕截圖(然后帶有時間戳)并將其復(fù)制并粘貼到 Google 文檔中。然后,他們使用顏色編碼過程修改AI生成的文本,從而可以輕松可視化文本中有多少是人為生成的。在使用這個過程時,我發(fā)現(xiàn)學(xué)生重新排列了段落,添加了全新的段落,并放大了他們的寫作,遠遠超出了最初的人工智能生成的文本。 我之所以提到這一點,是因為我已經(jīng)有幾個人聯(lián)系我,問我是否會測試他們的人工智能檢測軟件。這些程序承諾通過分析一篇文章并檢測它是否是人為生成的來檢測作弊。在一分鐘內(nèi),您會收到一個分數(shù),描述 AI 生成了多少工作。把它想象成類固醇的轉(zhuǎn)變。奇怪的是,這些程序是人工智能的一種形式。復(fù)雜的算法會查看一系列因素,以確定某些東西是否是人工智能生成的。 它首先檢查語義連貫性。人類的思想往往更合乎邏輯,但也包含隨機的題外話。換句話說,我們傾向于隨機追蹤兔子的蹤跡。它還著眼于語氣和風(fēng)格。人類作家往往具有獨特的風(fēng)格和基調(diào),這些風(fēng)格和基調(diào)是由他們的經(jīng)歷、個性和背景塑造的,而人工智能生成的寫作可能更通用且缺乏個性。我們還使用更多的口語,比如前面提到的兔子蹤跡。我們也傾向于更頻繁地改變動詞時態(tài)。最后,這些檢測程序查看文本復(fù)雜性。人類語言往往比人工智能生成的語言更復(fù)雜和多樣,后者可能更公式化或重復(fù)。人工智能檢測器可以分析句子長度、詞匯和語法等因素,以確定寫作是否與人類語言一致。 我已經(jīng)測試了其中三個程序,結(jié)果很糟糕。我使用了自己未發(fā)表的文章,一系列學(xué)生作品以及ChatGPT生成的一堆AI提示。然后,我使用了一些包含兩者混合的片段。在每種情況下,我發(fā)現(xiàn)這些算法在人類與人工智能混合時都很難確定AI生成的提示。但更令人擔(dān)憂的是,有許多誤報。人工智能不斷將未發(fā)表的人類工作識別為人工智能生成的。 這是一個令人不安的趨勢,因為我們想到在人工智能時代“抓騙子”。我們本質(zhì)上是委托先進的算法來判斷學(xué)生的學(xué)術(shù)誠信。想象一下,作為一個完全從頭開始寫東西的學(xué)生,卻發(fā)現(xiàn)你沒有上課并面臨學(xué)術(shù)試用,因為算法在確定什么是人類方面很糟糕。這種方法依賴于監(jiān)視、檢測和懲罰。即使算法在檢測人工智能生成的文本方面有所改進,我也不確定這是學(xué)校應(yīng)該強調(diào)的方向。 幸運的是,有一種更人性化的問責(zé)方法。這是我的教授朋友在第一次聽說 ChatGPT 時提出的信任和透明方法。她沒有驚慌失措并進入封鎖方法,而是問道:“我們?nèi)绾巫寣W(xué)生使用這些工具并讓他們的思維可見? 學(xué)生使用人工智能的注意事項如果您登錄 ChatGPT,主屏幕會清楚地顯示哪些 AI 做得好,哪些做得不好。我喜歡這樣一個事實,即這項技術(shù)從一開始就清楚地表明了它的一些局限性。但是,關(guān)于 ChatGPT 還有一些限制,學(xué)生應(yīng)該考慮。
我們無法預(yù)測在一個由人工智能主導(dǎo)的世界里,寫作會是什么樣子。更深入的學(xué)習(xí)機器,如ChatGPT,仍處于早期發(fā)展階段。機器學(xué)習(xí)將在未來幾十年變得更加先進和復(fù)雜。目前,許多AI工具不能在K-12環(huán)境中使用。例如,ChatGPT 要求用戶年滿 18 歲才能注冊。但我們確實知道人工智能正在迅速發(fā)展,目前在校外使用的許多工具都將具有符合CIPA和COPPA的教育等效物。 |
|