高效 Python 数据分析与自动化:Airflow · 可视化 · 大数据处理
掌握 Python、Apache Airflow、Spark、数据可视化与 LSTM 时序预测的全流程技能
学习内容:
- 从零搭建完整 Python 开发环境,掌握变量、数据结构、控制流等核心编程基础。
- 使用 Pandas、NumPy 进行高效数据清洗、转换、重塑、多重索引处理与向量化计算。
- 掌握 Matplotlib 与 Seaborn 绘图,制作折线图、散点图、小提琴图等专业数据可视化作品。
- 学习 Apache Spark,完成大规模数据处理、RDD 操作、DataFrame 查询与实时 Kafka 数据流处理。
- 掌握 Docker 环境构建,实现跨平台的可复现数据工作流。
- 从零搭建 Apache Airflow,编写 DAG、ETL 流程、任务依赖、调度配置,构建生产级数据管道。
- 使用 Papermill 自动化 Notebook,构建参数化、可复用的数据分析流程。
- 结合 LSTM 模型,实现股票分析等时间序列预测,构建自动化机器学习管道。
- 大规模动态任务生成、并发执行、Airflow 性能调优、错误诊断与日志分析。
本课程包括:
- 5 小时点播视频
- 55 个可下载资源
- 移动端与电视端访问
- 终身访问权限
- 课程完成证书
价格: $19.99
教程评分:3.7 / 5(4 条评价)
教程语言:英语
教程字幕:中英字幕
课程要求:
- 无需编程基础,从零开始学习 Python。
- 适合希望提升数据处理、可视化、大数据与自动化技能的学习者。
- 对数据科学、金融分析、软件开发有兴趣的用户尤佳。
课程描述:
《Python for Effect》是一门系统且实践性极强的数据分析与自动化全流程课程,覆盖 Python 编程、数据可视化、机器学习、大数据处理与 Airflow 自动化。课程从基础语法开始,逐步深入到数据建模、ETL、Docker 容器、Spark 计算、Airflow 调度以及基于 LSTM 的时间序列预测。通过真实案例与可复现项目,你将能够构建可扩展的数据管道,将原始数据转换为可视化报告、预测结果和可执行洞察。适合学生、数据分析师、开发者、研究人员及任何希望掌握端到端数据工作流的人士。

声明:本站所有文章,如无特殊说明或标注,均为本站发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。


![[udemy] 面向数据工程师的Master Azure Databricks|Databricks – Master Azure Databricks for Data Engineers](https://img-c.udemycdn.com/course/240x135/3460790_207f_7.jpg)

