openresty+lua 实现简单的灰度发布

openresty 是在nginx之上集成了lua模块的第三方服务器,我们很容易基于lua对openresy进行简单的二次开发。下面就是一个简单的openresty+lua 的灰度发布的测试demo,简单地来说就是通过client的ip来访问不同的服务器。

nginx.conf 配置文件如下:

upstream client1 {
		server 127.0.0.1:8080;

	}

	upstream client2 {
		server 127.0.0.1:8081;
	}

http {

server {
        listen       80;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;
		default_type 'text/plain';

		location /test {
			content_by_lua_file /Users/chenguowei/local/openresty/nginx/lua_conf/huidu.lua;
		}

		location @client1 {
			proxy_pass http://client1;
		}

		location @client2 {
			proxy_pass http://client2;
		}
}

 

huidu.lua 文件如下:

local redis = require "resty.redis"
local cache = redis.new()
cache:set_timeout(60000)

local ok, err = cache.connect(cache, "127.0.0.1", 6379)
if not ok then
	ngx.say("failed to connect:", err)
	return
end

local local_ip = ngx.req.get_headers()["X-Real-IP"]
if local_ip == nil then
	local_ip = ngx.req.get_headers()["x_forwarded_for"]
end

if local_ip == nil then 
	local_ip = ngx.var.remote_addr
end


local intercept = cache:get(local_ip)

if intercept == local_ip then
	ngx.exec("@client2")
	return
end

ngx.exec("@client1") --之前不能有任何的ngx.say()函数执行过,否则请求会出错

local ok, err = cache:close()

if not ok then
	ngx.say("failed to close: ", err)
	return
end

接下来使用如下命令来测试:

curl http://127.0.0.1/test

会请求 127.0.0.1:8080 服务器上的内容。

当你在 redis 内添加 set 127.0.0.1 127.0.0.1 这个键值,再次发送  curl http://127.0.0.1/test 会请求到127.0.0.1:8081 服务器上的内容。

在 2012 年的时候,我(作者)加入到奇虎 360 公司,为新的产品做技术选型。由于之前一直混迹在 Python 圈子 里面,也接触过 Nginx c 模块的高性能开发,一直想找到一个兼备 Python 快速开发和 Nginx c 模块高性能的产 品。看到 OpenResty 后,有发现新大陆的感觉。 于是我在新产品里面力推 OpenResty ,团队里面几乎没有人支持,经过几轮性能测试,虽然轻松击败所有的其 他方案,但是其他开发人员并不愿意参与到基于 OpenResty 这个“陌生”框架的开发中来。于是我一个人开始 了 OpenResty 之旅,刚开始经历了各种技术挑战,庆幸有详细的文档,以及春哥和邮件列表里面热情的帮 助,我成了团队里面 bug 最少和几乎不用加班的同学。 2014 年,团队进来了一批新鲜血液,他们都很有技术品味,先后都选择 OpenResty 来作为技术方向。我不再 是一个人在战斗,而另外一个新问题摆在团队面前,如何保证大家都能写出高质量的代码,都能对 OpenResty 有深入的了解?知识的沉淀和升华,成为一个迫在眉睫的问题。 我们选择把这几年的一些浅薄甚至可能是错误的实践,通过 Gitbook 的方式公开出来,一方面有利于团队自身的 技术积累,另一方面,也能让更多的高手一起加入,让 OpenResty 的使用变得更加简单,更多的应用到服务端 开发中,毕竟人生苦短,少一些加班,多一些陪家人。 这本书的定位是最佳实践,并不会对 OpenResty 做基础的介绍。想了解基础的同学,请不要看书,而是马上安 装 OpenResty ,把官方网站的 Presentations 浏览和实践几遍。 希望你能 enjoy OpenResty 之旅!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值