全球首位AI程序員Devin誕生了,還是個全棧工程師,能夠熟練進(jìn)行云端部署、編寫底層代碼、改bug、甚至連訓(xùn)練和微調(diào)AI大模型都輕車熟路,說好的AI替代人類,難道先從程序員下手了?
實(shí)際上用AI打造程序員并不是那么新鮮的事情,其實(shí)從去年開始就有很多這方面的有趣的嘗試,比如ChatDev項目,在github上已經(jīng)斬獲2萬顆星,也是在AI程序員的打造上大膽的一項嘗試。
在一個軟件項目當(dāng)中,我們可以定義CEO、CTO、開發(fā)工程師、測試人員、產(chǎn)品經(jīng)理等各類的角色,讓這些角色根據(jù)用戶提供的需求自行完成一個軟件開發(fā)項目。這些角色之前可以對話、可以開會、討論問題并達(dá)成結(jié)論。源碼地址:https://github.com/OpenBMB/ChatDev 在ChatDev之前,還有一個項目特別火,而且ChatDev也是借鑒了這個項目,叫作斯坦福小鎮(zhèn),用AI技術(shù)構(gòu)造很多角色,讓這些角色在虛擬世界里生活,它們之間可以無縫交流,組織活動、一起解決問題。源碼地址:https://github.com/joonspk-research/generative_agents 這些項目歸根揭底來自Agent技術(shù),在Agent框架下大模型可以起到控制流程的作用,它可以帶領(lǐng)每個領(lǐng)域的專家協(xié)作完成一個任務(wù)。用Agent開發(fā)AI程序員僅僅是Agent領(lǐng)域的一個應(yīng)用場景,你也可以基于Agent來寫一個完整的小說、生成完整的課程、組織一場社群活動等,這里有太多的想象空間。 我們一直認(rèn)為2024年是Agent領(lǐng)域爆發(fā)的一年,很多公司也會開始下場做Agent的開發(fā)項目,那作為開發(fā)工程師或者算法工程師,在24年從事一項Agent項目必定是職業(yè)生涯最好的選擇,能夠踏上這一班車意味著比別人領(lǐng)先一大步。 那如何學(xué)習(xí)Agent?市面上有體系的教程比較少、都是碎片化的內(nèi)容。在這里,我們強(qiáng)烈推薦貪心科技發(fā)布的《大模型開發(fā)應(yīng)用實(shí)戰(zhàn)營》+《大模型微調(diào)實(shí)戰(zhàn)營-應(yīng)用篇》組合學(xué)習(xí)路徑,從課程內(nèi)容豐富度,知識前沿性,講師專業(yè)度,體系化設(shè)計等各個維度可以說做到了遙遙領(lǐng)先,會讓你在短時間內(nèi)快速上手實(shí)現(xiàn)達(dá)模型類項目,極大提升學(xué)習(xí)效率。 感興趣的朋友歡迎掃描下方二維碼咨詢,具體大綱詳見下面。 《大模型開發(fā)應(yīng)用實(shí)戰(zhàn)營》- 為什么要學(xué)習(xí)大模型開發(fā)?
- 從大模型預(yù)訓(xùn)練、微調(diào)到應(yīng)用
第三章:大模型實(shí)操與API調(diào)用- ChatGLM,Baichuan,Yi-34B調(diào)用
- Chain of thought prompting
- Tree of thought prompting
- Graph of thought promting
- RAG的經(jīng)典結(jié)構(gòu)與模塊
第七章:【項目實(shí)戰(zhàn)1】基于RAG的PDF文檔助手第十章:向量數(shù)據(jù)庫算法進(jìn)階- HSNW第十一章:【項目實(shí)戰(zhàn)2】基于RAG的新聞推薦系統(tǒng)- 推薦系統(tǒng)原理、應(yīng)用場景以及架構(gòu)剖析
- 新聞數(shù)據(jù)的準(zhǔn)備與整理
第十二章:LangChain基礎(chǔ)應(yīng)用- 基于OpenAI調(diào)用Function Calling
- Function Calling的穩(wěn)定性
- LangChain與Function Calling
第十四章:LangChain與Retrieval組件- 常用的向量數(shù)據(jù)庫調(diào)用
- LLMChain, Sequential Chain
- Sentence window retrieval
- Parent-child chunks retrieval
第十九章:實(shí)戰(zhàn)基于Advanced RAG的PDF問答- ChatGLM, Baichuan,Yi等中文開源模型
第二十三章:高效微調(diào)技術(shù)-LoRA- 全量微調(diào)與少量參數(shù)微調(diào)
第二十四章:【項目實(shí)戰(zhàn)3】基于ChatGLM-6B+LoRA對話微調(diào)模型- 設(shè)計模型參數(shù)以及LoRA參數(shù)
- Agent目前面臨的挑戰(zhàn)與機(jī)遇
- 剖析ReAct框架的Prompt結(jié)構(gòu)
- 從零實(shí)現(xiàn)ReAct(from Scratch)
第二十八章:【項目實(shí)戰(zhàn)4】開源Agent項目第三十章:【項目實(shí)戰(zhàn)5】基于Agent的AI模擬面試- 需求設(shè)計和系統(tǒng)設(shè)計
第三十三章:智能設(shè)備上的模型優(yōu)化基礎(chǔ)第三十五章:邊緣計算中的大模型挑戰(zhàn)與機(jī)遇- Stable Diffusion與ControlNet
- Sora對多模態(tài)大模型會產(chǎn)生什么影響
- 案例:Video-LLaVA與多模態(tài)圖像視頻識別
《大模型微調(diào)實(shí)戰(zhàn)營-應(yīng)用篇》- 學(xué)習(xí)安排與課程結(jié)構(gòu)
- 關(guān)鍵技術(shù)和算法基礎(chǔ)
- 數(shù)據(jù)準(zhǔn)備與預(yù)處理
- 預(yù)訓(xùn)練、指令微調(diào)、對齊
- 微調(diào)與全量訓(xùn)練的區(qū)別
- 微調(diào)在不同領(lǐng)域的應(yīng)用案例
- 選擇微調(diào)任務(wù)和數(shù)據(jù)
- Transformer模型的基礎(chǔ)架構(gòu)
- Self-Attention機(jī)制的工作原理
- Transformer在NLP任務(wù)中的應(yīng)用
- 使用Transformer模型的實(shí)用技巧
第六章:【項目實(shí)戰(zhàn)1】開源大模型以及部署- 理解HF相應(yīng)的庫以及導(dǎo)入大模型
- LoRA微調(diào)在實(shí)際項目中的應(yīng)用
第九章:【項目實(shí)戰(zhàn)2】LoRA微調(diào)Alpaca項目- LoRA微調(diào)的實(shí)施與調(diào)優(yōu)
第十一章:QLoRA參數(shù)微調(diào)- QLoRA微調(diào)的性能調(diào)優(yōu)
第十二章:【項目實(shí)戰(zhàn)3】QLoRA參數(shù)微調(diào)智能客服項目- 準(zhǔn)備數(shù)據(jù)與環(huán)境配置
- 執(zhí)行微調(diào)與性能監(jiān)控
第十三章:DeepSpeed訓(xùn)練框架解析- 實(shí)戰(zhàn)案例與經(jīng)驗分享
第十四章:Megatron-LM訓(xùn)練框架解析- 應(yīng)用Megatron-LM進(jìn)行模型訓(xùn)練
- 實(shí)戰(zhàn)案例與經(jīng)驗分享
第十五章:Flash Attention技術(shù)應(yīng)用- 在大模型中應(yīng)用Flash Attention
- Benchmark設(shè)計與業(yè)務(wù)場景
第十七章:【項目實(shí)戰(zhàn)4】微調(diào)QLoRA+Flash Attention- 結(jié)合QLoRA和Flash Attention的策略
- 維護(hù)和貢獻(xiàn)開源模型的最佳實(shí)踐
第十九章:ChatGLM開源模型家族和應(yīng)用第二十章:【項目實(shí)戰(zhàn)5】ChatGLM微調(diào)醫(yī)療模型第二十一章:Qwen和YI開源模型家族和應(yīng)用- 微調(diào)Qwen和YI模型的實(shí)踐指南
第二十二章:LLaMA開源模型家族和應(yīng)用第二十三章:Mistral和Phi開源模型家族和應(yīng)用- Mistral和Phi在多語言中的應(yīng)用
第二十四章:MoE模型特點(diǎn)以及應(yīng)用- MoE(Mixture of Experts)模型概念
- MoE模型在大規(guī)模數(shù)據(jù)處理中的優(yōu)勢
- 微調(diào)MoE模型的關(guān)鍵點(diǎn)
- MoE模型的擴(kuò)展性和可維護(hù)性問題
第二十五章:【項目實(shí)戰(zhàn)6】Mistra 8x7B微調(diào)智能客服模型- 微調(diào)Mistra 8x7b+QLoRA模型
- 不同領(lǐng)域開源模型的應(yīng)用實(shí)例
- 微調(diào)這些開源模型的技術(shù)指導(dǎo)
- 評估開源模型的關(guān)鍵標(biāo)準(zhǔn)
- 實(shí)踐中選擇開源模型的經(jīng)驗分享
- 對齊過程中的數(shù)據(jù)處理和預(yù)處理
- 開源數(shù)據(jù)在模型對齊中的應(yīng)用
第三十章:RLHF技術(shù)和應(yīng)用- RLHF(強(qiáng)化學(xué)習(xí)從人類反饋)技術(shù)介紹
第三十一章:DPO技術(shù)和應(yīng)用- DPO(Direct Preference Optimization)概念
- 實(shí)現(xiàn)DPO的關(guān)鍵技術(shù)點(diǎn)
第三十二章:【項目實(shí)戰(zhàn)7】RLHF推薦模型對齊項目第三十三章:【項目實(shí)戰(zhàn)8】DPO推薦模型對齊項目- 對齊數(shù)據(jù)的準(zhǔn)備和處理
- 當(dāng)前大模型對齊技術(shù)的發(fā)展趨勢
第五階段:垂直領(lǐng)域大模型應(yīng)用第三十五章:垂直領(lǐng)域大模型微調(diào)基礎(chǔ)- 垂直領(lǐng)域的研發(fā)符合中國現(xiàn)狀
- 垂直領(lǐng)域大模型研發(fā)pipeline
第三十六章:醫(yī)療領(lǐng)域大模型微調(diào)- 智能問診領(lǐng)域的應(yīng)用場景和需求
- 領(lǐng)域內(nèi)benchmark設(shè)計
- 微調(diào)模型以適應(yīng)醫(yī)療數(shù)據(jù)
第三十七章:金融領(lǐng)域大模型微調(diào)- 微調(diào)模型在金融Benchmark上的評估
第三十八章:教育領(lǐng)域大模型微調(diào)- 教育領(lǐng)域的大模型應(yīng)用場景和需求
- 微調(diào)大模型進(jìn)行個性化學(xué)習(xí)支持
- 指令數(shù)據(jù)和對齊數(shù)據(jù)的整理
《大模型開發(fā)應(yīng)用實(shí)戰(zhàn)營》 (不限年齡!不限崗位!有Python基礎(chǔ)的IT從業(yè)者都推薦學(xué)習(xí)) | | | | | | | 25人以內(nèi)學(xué)習(xí)群,助教答疑,保證遇到的問題被快速解決 | 不管你是前端開發(fā)、后端開發(fā)、測試、算法、數(shù)據(jù)分析......只要你想了解AI應(yīng)用開發(fā),這門課就適合你! 《大模型微調(diào)實(shí)戰(zhàn)營-應(yīng)用篇》 (適合有Python基礎(chǔ)的開發(fā)與算法從業(yè)者) | | | | | | | 25人以內(nèi)學(xué)習(xí)群,助教答疑,保證遇到的問題被快速解決 |
人工智能、大模型領(lǐng)域?qū)<?/span>- 曾任金融科技獨(dú)角獸公司首席科學(xué)家
- 曾任量化投資初創(chuàng)公司首席科學(xué)家
- 深耕人工智能領(lǐng)域十余年,授課培養(yǎng)AI學(xué)員數(shù)萬人
大模型開發(fā)與微調(diào)領(lǐng)域?qū)<?/span>
|