大语言模型原理与机制深度解析(LLM)

从 Transformer 架构到机制可解释性的 90+ 小时系统实战课程

学习内容:

  • 大语言模型(LLM)完整架构:Tokenization、Embedding、Decoder-only Transformer、GPT 与 BERT 对比
  • Transformer 核心模块:自注意力机制、多头注意力、前馈网络、LayerNorm、残差连接
  • 注意力机制数学原理:点积注意力、因果掩码、位置编码、概率采样
  • 使用 PyTorch 从零构建并训练 Transformer 与 GPT 类模型
  • LLM 预训练流程:损失函数、Adam / AdamW 优化器、权重初始化、正则化与数值稳定性
  • 推理与生成策略:Greedy、Top-k、Top-p、Temperature、多项式采样
  • 模型评估方法:Perplexity、HellaSwag、MAUVE、SuperGLUE、公平性与偏见分析
  • 机制可解释性(Mechanistic Interpretability):激活分析、注意力头分析、Logit Lens、SAE、因果干预
  • 高维表示分析:PCA、t-SNE、DBSCAN、余弦相似度、RSA、互信息
  • AI 安全与对齐:模型偏见、红队测试、因果干预、激活编辑

本课程包括:

  • 91 小时以上高清视频课程(40 个章节,329 节课)
  • 大量 CodeChallenge 编程练习(含完整参考解答)
  • 完整 Python / PyTorch 实战代码
  • 可下载课程代码与实验 Notebook
  • 结课证书(Certificate of Completion)
  • 支持手机、电视与桌面端学习

价格:$19.99

教程评分:4.8 / 5.0(9,500+ 学员,高评分畅销课程)

教程语言:英语

教程字幕:中英字幕

课程要求:

  • 对人工智能与大语言模型有学习兴趣与动机
  • 具备基础 Python 编程经验(非必须但推荐)
  • 了解基础机器学习或深度学习概念更佳
  • 具备基础线性代数与概率统计知识更佳

课程描述:

本课程是一门面向研究级与工程级学习者的大语言模型(LLM)系统课程,目标不是教你“如何调用 API”,
而是让你真正理解 ChatGPT、GPT-4、Claude、Gemini、LLaMA 等模型背后的数学原理与工程机制。

课程从最基础的文本 Tokenization 与 Embedding 出发,逐步构建完整的 Transformer 与 GPT 架构,
并通过大量 PyTorch 实战代码,带你亲手实现注意力机制、训练循环、推理策略与模型评估流程。

在此基础上,课程深入机制可解释性(Mechanistic Interpretability)与 AI 安全方向,
系统讲解如何“解剖”大语言模型内部结构,包括注意力头分析、神经元调谐、激活干预与因果分析,
帮助你真正理解模型为什么会产生某个输出。

完成本课程后,你将具备独立设计、训练、分析和评估 Transformer 语言模型的能力,
适用于 AI 工程、研究生学习、科研工作与高阶 NLP 实践。

B站免费课程

更多 人工智能 教程

 

发表回复

后才能评论

尊敬的用户,您好!由于部分培训机构和留学生的举报,近期导致网站大量链接暂时失效。对此给您带来的不便,我们深表歉意。任何链接失效的资源,欢迎您添加侧边栏二维码随时反馈,我们将在48小时内为您提供新的网盘链接。如果您对此不便感到不满,您也可在48小时内申请无理由退款。感谢您的理解与支持!

Windows播放器推荐:Potplayer Potplayer 是免费的 Windows 播放器,支持双字幕和自动翻译功能。以下是操作指南: 挂载字幕 加载中文字幕:右击选择 字幕 -> 字幕设置,取消“只匹配文件名字幕”选项。可调整字幕颜色、位置和大小。 双字幕设置:右击 字幕 -> 选择字幕 -> 次字幕输出,设置主字幕和次字幕。 自动翻译 若可访问 Google 翻译服务,选择 字幕 -> 实时字幕翻译,勾选 总是使用 和 Google Translate,即可实时翻译英文字幕。 Potplayer 让观看更智能,学习体验升级。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可联络站长解决。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源