隨著科技的飛速發(fā)展,人工智能(AI)技術(shù)正以前所未有的速度滲透到各個行業(yè)領(lǐng)域,傳統(tǒng)的業(yè)務(wù)模式正在經(jīng)歷著由AI技術(shù)帶來的深刻變革,為了適應(yīng)這一變革,各企業(yè)急需了解并掌握AI大模型的垂直優(yōu)化訓練和開發(fā)框架、應(yīng)用場景以及潛在的商業(yè)價值。
希望掌握大模型的企業(yè)領(lǐng)導(dǎo)和商業(yè)領(lǐng)袖;
希望迅速掌握利用大模型幫助工作的工程師;
人工智能應(yīng)用相關(guān)人員;
學員需具備:
初步的IT基礎(chǔ)知識、基本的python編程能力、熟悉深度學習和nlp的基本概念、熟悉人工智能基本概念。
能夠掌握Python使用llm的相關(guān)預(yù)訓練模型的基本流程和模型;
初步具備利用Python在工作中使用大模型構(gòu)建對話系統(tǒng)的能力;
理解人工智能基本原理;
掌握人工智能大模型相關(guān)概念和生態(tài)組件;
掌握深度學習和nlp相關(guān)知識;
了解相關(guān)開源大語言模型;
結(jié)合老師多年行業(yè)實踐經(jīng)驗以案例討論的方式為學員后續(xù)項目應(yīng)用提供針對性的建議參考。
-- 實戰(zhàn) Transformers 模型訓練;
-- 大模型高效微調(diào)技術(shù)揭秘;
-- 大模型高效微調(diào)工具 Hugging Face PEFT 入門與實戰(zhàn);
-- 實戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3。
學習內(nèi)容
實戰(zhàn) Transformers 模型訓練
1. 數(shù)據(jù)集處理庫 Hugging Face Datasets
2. Hugging Face Datasets 庫簡介
3. 數(shù)據(jù)預(yù)處理策略:填充與截斷
4. 使用 Datasets.map 方法處理數(shù)據(jù)集
5. Transformers 模型訓練入門
6. 模型訓練基類 Trainer
7. 訓練參數(shù)與超參數(shù)配置 TrainingArguments
8. 模型訓練評估庫 Hugging Face Evaluate
大模型高效微調(diào)技術(shù)揭秘
1. PEFT 基于重參數(shù)化(Reparametrization-based)訓練方法
2. LoRA 低秩適配微調(diào) (2021 Microsoft)
3. AdaLoRA 自適應(yīng)權(quán)重矩陣微調(diào) (2023 Microsoft, Princeton, Georgia Tech)
4. QLoRA 量化低秩適配微調(diào) (2023 University of Washington)
5. UniPELT:大模型 PEFT 統(tǒng)一框架(2022)
6. (IA)3:極簡主義增量訓練方法 (2022)
7. Before PEFT:Hard Prompt / Full Fine-tune
8. PEFT 主流技術(shù)分類介紹
9. PEFT Adapter 技術(shù)
10. Adapter Tuning (2019 Google)
11. PEFT – Soft Prompt 技術(shù)(Task-specific Tuning)
12. Prefix Tuning (2021 Stanford)
13. Prompt Tuning (2021 Google)
14. PEFT – Soft Prompt 技術(shù)(Prompt Encoder)
15. P-Tuning v1 (2021 Tsinghua, MIT)
16. P-Tuning v2 (2022 Tsinghua, BAAI, Shanghai Qi Zhi Institute)
大模型高效微調(diào)工具 Hugging Face PEFT 入門與實戰(zhàn)
1. Hugging Face PEFT 快速入門
2. PEFT 庫是什么?
3. PEFT 與 Transformers 庫集成
4. PEFT 核心類定義與功能說明
5. AutoPeftModels、PeftModel
6. PeftConfig
7. PeftType | TaskType
8. 實戰(zhàn) PEFT 庫 LoRA 模型微調(diào)
9. OpenAI Whisper 模型介紹
10. 實戰(zhàn) LoRA 微調(diào) Whisper-Large-v2 中文語音識別 3.9.限制控制智能體執(zhí)行
11. AI調(diào)用shell接管控制電腦
實戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3
1. 實戰(zhàn)構(gòu)造私有的微調(diào)數(shù)據(jù)集
2. 使用 ChatGPT 自動設(shè)計生成訓練數(shù)據(jù)的 Prompt
3. 合成數(shù)據(jù): LangChain + GPT-3.5 Turbo
4. 數(shù)據(jù)增強:提升訓練數(shù)據(jù)多樣性
5. 提示工程:保持批量生成數(shù)據(jù)穩(wěn)定性
6. 實戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3
7. 使用 QLoRA 小樣本微調(diào) ChatGLM3
8. ChatGLM3 微調(diào)前后效果對比
9. 大模型訓練過程分析與數(shù)據(jù)優(yōu)化
無認證考試
暫無開班信息
人工智能訓練師(三級)進階
隨著人工智能技術(shù)的快速發(fā)展,社會對相關(guān)專業(yè)人才的需求不斷增加。上海交通大學憑借其在人工智能領(lǐng)域的學科優(yōu)勢和科研實力,開展人工智能訓練師培訓項目,旨在培養(yǎng)適應(yīng)市場需求的專業(yè)技術(shù)人才。
開課時間:暫無
人工智能訓練師(三級)基礎(chǔ)
隨著人工智能技術(shù)的快速發(fā)展,社會對相關(guān)專業(yè)人才的需求不斷增加。上海交通大學憑借其在人工智能領(lǐng)域的學科優(yōu)勢和科研實力,開展人工智能訓練師培訓項目,旨在培養(yǎng)適應(yīng)市場需求的專業(yè)技術(shù)人才。
開課時間:暫無
DeepSeek核心技術(shù)原理和本地部署微調(diào)實戰(zhàn)
隨著人工智能技術(shù)的快速發(fā)展,智能助手(如DeepSeek-V3)在多模態(tài)理解、個性化交互、知識推理等領(lǐng)域的應(yīng)用日益廣泛。DeepSeek-V3作為深度求索公司推出的第三代智能助手,憑借其先進的核心技術(shù)(如大規(guī)模預(yù)訓練、多模態(tài)理解、上下文感知等),在智能客服、內(nèi)容創(chuàng)作、教育、醫(yī)療等領(lǐng)域展現(xiàn)了強大的潛力。
開課時間:暫無