實戰(zhàn) Transformers 模型訓(xùn)練
 1. 數(shù)據(jù)集處理庫 Hugging Face Datasets
 2. Hugging Face Datasets 庫簡介
 3. 數(shù)據(jù)預(yù)處理策略:填充與截斷
 4. 使用 Datasets.map 方法處理數(shù)據(jù)集
 5. Transformers 模型訓(xùn)練入門
 6. 模型訓(xùn)練基類 Trainer
 7. 訓(xùn)練參數(shù)與超參數(shù)配置 TrainingArguments
 8. 模型訓(xùn)練評估庫 Hugging Face Evaluate
 大模型高效微調(diào)技術(shù)揭秘 
 1. PEFT 基于重參數(shù)化(Reparametrization-based)訓(xùn)練方法
 2. LoRA 低秩適配微調(diào) (2021 Microsoft)
3. AdaLoRA 自適應(yīng)權(quán)重矩陣微調(diào) (2023 Microsoft, Princeton, Georgia Tech)
 4. QLoRA 量化低秩適配微調(diào) (2023 University of Washington)
 5. UniPELT:大模型 PEFT 統(tǒng)一框架(2022)
6. (IA)3:極簡主義增量訓(xùn)練方法 (2022)