鍍金池/ 教程/ Java/ pipeline 壓縮請求數(shù)量
定時任務
函數(shù)的參數(shù)
超時
一個 openresty 內存“泄漏”問題
獲取 uri 參數(shù)
局部變量
sleep
灰度發(fā)布
TIME_WAIT
代碼覆蓋率
連接池
CentOS 平臺安裝
稀疏數(shù)組
如何只啟動一個 timer 工作?
變量的共享范圍
break,return 關鍵字
Nginx
SQL 注入
如何引用第三方 resty 庫
不同階段共享變量
獲取請求 body
動態(tài)生成的 lua-resty-redis 模塊方法
動態(tài)加載證書和 OCSP stapling
repeat 控制結構
編碼為 array 還是 object
Nginx 靜態(tài)文件服務
執(zhí)行階段概念
Lua 函數(shù)
日期時間函數(shù)
健康監(jiān)測
與其他 location 配合
for 控制結構
函數(shù)定義
HTTPS 時代
點號與冒號操作符的區(qū)別
String 庫
文件操作
OpenResty 最佳實踐
<code>ngx.shared.DICT</code> 非隊列性質
使用動態(tài) DNS 來完成 HTTP 請求
代碼規(guī)范
什么是 JIT?
Windows 平臺安裝
正確的記錄日志
LuaNginxModule
不用標準庫
C10K 編程
控制結構
請求中斷后的處理
Lua 環(huán)境搭建
Test::Nginx 能指定現(xiàn)成的 nginx.conf,而不是自動生成一個嗎
Lua 基礎數(shù)據(jù)類型
動態(tài)限速
PostgresNginxModule
簡單API Server框架
API 測試
location 匹配規(guī)則
虛變量
單元測試
防止 SQL 注入
select + set_keepalive 組合操作引起的數(shù)據(jù)讀寫錯誤
阻塞操作
全動態(tài)函數(shù)調用
Web 服務
典型應用場景
Nginx 新手起步
TLS session resumption
輸出響應體
調用代碼前先定義函數(shù)
module 是邪惡的
怎樣理解 cosocket
模塊
Socket 編程發(fā)展
如何對 Nginx Lua module 添加新 api
如何在后臺開啟輕量級線程完成定時任務?
如何定位問題
table 庫
json 解析的異常捕獲
如何安裝火焰圖生成工具
lua 中如何 continue
if 是邪惡的
為什么我們的域名不能被解析
抵制使用 module() 定義模塊
測試
body 在 location 中的傳遞
Lua 入門
子查詢
pipeline 壓縮請求數(shù)量
如何發(fā)起新 HTTP 請求
Lua 簡介
緩存失效風暴
Ubuntu 平臺安裝
日志輸出
緩存
Lua 面向對象編程
Nginx 陷阱和常見錯誤
Redis 接口的二次封裝(發(fā)布訂閱)
日志
訪問有授權驗證的 Redis
正則表達式
lock
熱裝載代碼
調用 FFI 出現(xiàn) &quot;table overflow&quot;
數(shù)據(jù)合法性檢測
禁止某些終端訪問
控制結構 if-else
調試
與 Docker 使用的網絡瓶頸
PostgresNginxModule 模塊的調用方式
用 do-end 整理你的代碼
FFI
什么時候使用
簡介
環(huán)境搭建
Mac OS X 平臺安裝
火焰圖
負載均衡
while 型控制結構
如何定位 openresty 崩潰 bug
使用 Nginx 內置綁定變量
判斷數(shù)組大小
請求返回后繼續(xù)執(zhí)行
Redis 接口的二次封裝
KeepAlive
反向代理
協(xié)議無痛升級
數(shù)學庫
元表
Vanilla 介紹
HelloWorld
LuaCjsonLibrary
持續(xù)集成
代碼靜態(tài)分析
網上有大量對 Lua 調優(yōu)的推薦,我們應該如何看待?
script 壓縮復雜請求
非空判斷
性能測試
函數(shù)返回值
API 的設計
kong 介紹
表達式
不支持事務
LuaRestyDNSLibrary 簡介

pipeline 壓縮請求數(shù)量

通常情況下,我們每個操作 Redis 的命令都以一個 TCP 請求發(fā)送給 Redis,這樣的做法簡單直觀。然而,當我們有連續(xù)多個命令需要發(fā)送給 Redis 時,如果每個命令都以一個數(shù)據(jù)包發(fā)送給 Redis,將會降低服務端的并發(fā)能力。

為什么呢?大家知道每發(fā)送一個 TCP 報文,會存在網絡延時及操作系統(tǒng)的處理延時。大部分情況下,網絡延時要遠大于 CPU 的處理延時。如果一個簡單的命令就以一個 TCP 報文發(fā)出,網絡延時將成為系統(tǒng)性能瓶頸,使得服務端的并發(fā)數(shù)量上不去。

首先檢查你的代碼,是否明確完整使用了 Redis 的長連接機制。作為一個服務端程序員,要對長連接的使用有一定了解,在條件允許的情況下,一定要開啟長連接。驗證方式也比較簡單,直接用 tcpdump 或 wireshark 抓包分析一下網絡數(shù)據(jù)即可。

set_keepalive的參數(shù):按照業(yè)務正常運轉的并發(fā)數(shù)量設置,不建議使用峰值情況設置。

如果我們確定開啟了長連接,發(fā)現(xiàn)這時候 Redis 的 CPU 的占用率還是不高,在這種情況下,就要從 Redis 的使用方法上進行優(yōu)化。

如果我們可以把所有單次請求,壓縮到一起,如下圖:

http://wiki.jikexueyuan.com/project/openresty/images/pipeline.png" alt="請求示意圖" />

很慶幸 Redis 早就為我們準備好了這道菜,就等著我們吃了,這道菜就叫 pipeline。pipeline 機制將多個命令匯聚到一個請求中,可以有效減少請求數(shù)量,減少網絡延時。下面是對比使用 pipeline 的一個例子:

# you do not need the following line if you are using
    # the ngx_openresty bundle:
    lua_package_path "/path/to/lua-resty-redis/lib/?.lua;;";

    server {
        location /withoutpipeline {
           content_by_lua_block {
                local redis = require "resty.redis"
                local red = redis:new()

                red:set_timeout(1000) -- 1 sec

                -- or connect to a unix domain socket file listened
                -- by a redis server:
                --     local ok, err = red:connect("unix:/path/to/redis.sock")

                local ok, err = red:connect("127.0.0.1", 6379)
                if not ok then
                    ngx.say("failed to connect: ", err)
                    return
                end

                local ok, err = red:set("cat", "Marry")
                ngx.say("set result: ", ok)
                local res, err = red:get("cat")
                ngx.say("cat: ", res)

                ok, err = red:set("horse", "Bob")
                ngx.say("set result: ", ok)
                res, err = red:get("horse")
                ngx.say("horse: ", res)

                -- put it into the connection pool of size 100,
                -- with 10 seconds max idle time
                local ok, err = red:set_keepalive(10000, 100)
                if not ok then
                    ngx.say("failed to set keepalive: ", err)
                    return
                end
            }
        }

        location /withpipeline {
            content_by_lua_block {
                local redis = require "resty.redis"
                local red = redis:new()

                red:set_timeout(1000) -- 1 sec

                -- or connect to a unix domain socket file listened
                -- by a redis server:
                --     local ok, err = red:connect("unix:/path/to/redis.sock")

                local ok, err = red:connect("127.0.0.1", 6379)
                if not ok then
                    ngx.say("failed to connect: ", err)
                    return
                end

                red:init_pipeline()
                red:set("cat", "Marry")
                red:set("horse", "Bob")
                red:get("cat")
                red:get("horse")
                local results, err = red:commit_pipeline()
                if not results then
                    ngx.say("failed to commit the pipelined requests: ", err)
                    return
                end

                for i, res in ipairs(results) do
                    if type(res) == "table" then
                        if not res[1] then
                            ngx.say("failed to run command ", i, ": ", res[2])
                        else
                            -- process the table value
                        end
                    else
                        -- process the scalar value
                    end
                end

                -- put it into the connection pool of size 100,
                -- with 10 seconds max idle time
                local ok, err = red:set_keepalive(10000, 100)
                if not ok then
                    ngx.say("failed to set keepalive: ", err)
                    return
                end
            }
        }
    }

在我們實際應用場景中,正確使用 pipeline 對性能的提升十分明顯。我們曾經某個后臺應用,逐個處理大約 100 萬條記錄需要幾十分鐘,經過 pileline 壓縮請求數(shù)量后,最后時間縮小到 20 秒左右。做之前能預計提升性能,但是沒想到提升如此巨大。