OpenResty从入门到实战--极客时间课程推荐/优惠
版权声明
本站非极客时间官网,与官方无任何关系。我们不提供课程下载或详细内容,仅作为课程分享和推荐平台。我们鼓励大家支持正版,尊重创作者的劳动成果,这样不仅能帮助创作者持续产出优质内容,也能让自己获得更好的学习体验。请通过官方渠道购买和学习课程,感谢您的理解与支持。
课程详情
你将获得:
- 构建OpenResty完整知识体系;
- 高性能OpenResty编码指南;
- 开源项目源码分析与实战;
- 从0搭建微服务API网关。
课程介绍
对于每一个服务端开发工程师来说,高性能、高并发都是避不开的话题,谁不希望开发高性能的服务端,做出能支持千万甚至上亿用户的系统呢?
不管你的开发语言和平台是什么,学会 OpenResty 都会对你有所裨益。使用OpenResty,你可以用 Lua 语言来进行字符串和数值运算、查询数据库、发送 HTTP 请求、执行定时任务、调用外部命令等,还可以用 FFI 的方式调用外部 C 函数。这基本上可以满足服务端开发所需的所有功能。
可以说,掌握了 OpenResty,你就可以同时拥有脚本语言的开发效率和迭代速度,以及 NGINX C 模块的高并发和高性能优势。
不过,OpenResty 的学习资料还比较少,官方也只有 API 文档,而网上能找到的资料也不够系统。可以说,绝大部分的 OpenResty 使用者都是在摸着石头过河,很难实现系统、权威的学习。
在这个专栏里,温铭将带你轻松快速入门,并给你描绘 OpenResty 的全貌,建立完整的知识体系;同时,他会串联整个专栏来实战应用,带你从零开始搭建一个 API 网关。为了让你接触更真实的使用场景,温铭还在专栏里特别增加了多节视频课程,进行开源项目的源码分析和实战演练,帮你真正掌握OpenResty这款开发利器。
根据 OpenResty 使用者的现状分析,专栏内容分为5大模块。
模块一,入门篇。OpenResty 由 NGINX 和 LuaJIT 两部分构成,这一模块会介绍它们的基础知识,以及其中经常遇到的缺陷与陷阱;同时会带你浏览下OpenResty 仓库的近 70 个项目。虽然OpenResty 经常被叫做 ngx-lua,但 lua-nginx-module 仅仅是冰山一角,你需要清晰的全局观来学习 OpenResty 的“真面目”,不能“身在此山中”。
模块二,API篇。这是 OpenResty 对外暴露的 Lua 接口,也是你编写 OpenResty 代码最常用到的部分。这一模块会把这些指令和 API 分门别类逐步介绍给你,并引导你思考一些易忽略的关键点,比如,这些 API 为什么这么设计?为什么要增加一些看上去和 NGINX 无关的功能?希望能让你知其然,更知其所以然。
模块三,测试篇。这可能是本专栏最“高冷”的部分,不少 OpenResty 的代码贡献者都在编写测试案例时遇到过困难。test::nginx
功能异常强大,但也有很高的学习门槛,就连详细文档也不足以填平它。除此之外,这一部分还会带你讨论服务端性能测试,作为 OpenResty 中的最佳实践,在你测试 Java、Go、Node.js 等其他语言开发的系统时,它一样适用。
模块四,性能优化篇。OpenResty 的性能优化技巧,一直是开发者最关注的问题。这个模块会提供 OpenResty 的编码指南,让你从一开始写代码时,就能规避性能问题;并且会手把手地教你,如何使用火焰图这种科学、可量化的工具来定位性能问题,而不是依靠猜测。
模块五,实战篇。OpenResty 社区中有一个很明显的趋势,就是越来越多的开发者把 OpenResty 用在 API 网关的开发中,这是一个非常明智和务实的选择。这个模块会带你把前面所学的知识串联起来,搭建出一个 API 网关的雏形。你可以在此基础上,直接添加自己的模块来实现业务需求,不用再重新造轮子。
课程目录
开篇词
- 开篇词 | OpenResty,为你打开高性能开发的大门
入门篇
- 08 | LuaJIT分支和标准Lua有什么不同?
- 09 | 为什么 lua-resty-core 性能更高一些?
- 10 | JIT编译器的死穴:为什么要避免使用 NYI ?
- 11 | 剖析Lua唯一的数据结构table和metatable特性
- 12 | 高手秘诀:识别Lua的独有概念和坑
- 13 | [视频]实战:基于FFI实现的lua-resty-lrucache
- 14 | 答疑(一):Lua 规则和 NGINX 配置文件产生冲突怎么办?
- 01 | 初探OpenResty的三大特性
- 02 | 如何写出你的“hello world”?
- 03 | 揪出隐藏在背后的那些子项目
- 04 | 如何管理第三方包?从包管理工具luarocks和opm说起
- 05 | [视频]opm项目导读
- 06 | OpenResty 中用到的 NGINX 知识
- 07 | 带你快速上手 Lua
API篇
- 15 | OpenResty 和别的开发平台有什么不同?
- 16 | 秒杀大多数开发问题的两个利器:文档和测试案例
- 17 | 为什么能成为更好的Web服务器?动态处理请求和响应是关键
- 18 | worker间的通信法宝:最重要的数据结构之shared dict
- 19 | OpenResty 的核心和精髓:cosocket
- 20 | 超越 Web 服务器:特权进程和定时任务
- 21 | 带你玩转时间、正则表达式等常用API
- 22 | [视频]从一个安全漏洞说起,探寻API性能和安全的平衡
- 23 | [视频]导读lua-resty-requests:优秀的lua-resty-*是如何编写的?
- 24 | 实战:处理四层流量,实现Memcached Server
- 25 | 答疑(二):特权进程的权限到底是什么?
测试篇
- 26 | 代码贡献者的拦路虎:test::nginx 简介
- 27 | test::nginx 包罗万象的测试方法
- 28 | test::nginx 还可以这样用?
- 29 | 最容易失准的性能测试?你需要压测工具界的“悍马”wrk
- 30 | 答疑(三)如何搭建测试的网络结构?
性能优化篇
- 35 | [视频]实际项目中的性能优化:ingress-nginx中的几个PR解读
- 38 | [视频]巧用wrk和火焰图,科学定位性能瓶颈
- 31 | 性能下降10倍的真凶:阻塞函数
- 32 | 让人又恨又爱的字符串操作
- 33 | 性能提升10倍的秘诀:必须用好 table
- 34 | 特别放送:OpenResty编码指南
- 36 | 盘点OpenResty的各种调试手段
- 37 | systemtap-toolkit和stapxx:如何用数据搞定“疑难杂症”?
- 39 | 高性能的关键:shared dict 缓存和 lru 缓存
- 40 | 缓存与风暴并存,谁说缓存风暴不可避免?
- 41 | lua-resty-* 封装,让你远离多级缓存之痛
- 42 | 如何应对突发流量:漏桶和令牌桶的概念
- 43 | 灵活实现动态限流限速,其实没有那么难
- 44 | OpenResty 的杀手锏:动态
- 45 | 不得不提的能力外延:OpenResty常用的第三方库
- 46 | 答疑(四):共享字典的缓存是必须的吗?
API网关篇
- 47 | 微服务API网关搭建三步曲(一)
- 48 | 微服务API网关搭建三步曲(二)
- 49 | 微服务API网关搭建三步曲(三)
- 50 | 答疑(五):如何在工作中引入 OpenResty?
结束语
- 结束语 | 行百里者半九十