斯坦福2025秋季《Transformers与大型语言模型》课程全解析 2025-11-04 0 浏览 0 点赞 resource 斯坦福 2025 秋季开设的《Transformers与大型语言模型》课程,涵盖从基础到前沿的全方位内容,值得 AI 爱好者和从业者关注: - 课程从 NLP 基础讲起,逐步深入 Transformer 架构、注意力机制及其变种(如多头注意力、位置编码等) - 深入解析大型语言模型(LLM)的定义、架构、混合专家模型、采样策略和提示学习,详细讲授链式思维与自洽性 - 系统介绍 LLM 训练方法,包括预训练、量化、硬件优化及高效微调技术(如 LoRA) - 探讨 LLM 调优策略,涵盖偏好调教、强化学习人类反馈(RLHF)、奖励建模及相关算法 - 未来课程聚焦 LLM 推理能力、代理型模型、检索增强生成、多模态评估及未来趋势,前沿话题紧跟行业动向 这门课程不仅系统全面,还注重实际应用与研究前沿结合,适合希望深入理解并参与大型语言模型发展的人士。透过结构化教学,帮助学习者抓住技术核心,识别挑战与机遇,推动 AI 技术进步。 课程大纲 斯坦福 Transformers 与大型语言模型课程大纲 #AI #LLM #LoRA #RAG #RLHF #Transformer #斯坦福 #自然语言处理 #课程