好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > nginx作grpc的反向代理踩坑總結

nginx作grpc的反向代理踩坑總結

熱門標簽:威海人工外呼系統供應商 撫順移動400電話申請 貴陽教育行業電話外呼系統 藍點外呼系統 烏海智能電話機器人 寧夏房產智能外呼系統要多少錢 做外呼系統的公司違法嗎 400電話申請方案 在百度地圖標注車輛

背景

眾所周知,nginx是一款高性能的web服務器,常用于負載均衡和反向代理。所謂的反向代理是和正向代理相對應,正向代理即我們常規意義上理解的“代理”:例如正常情況下在國內是無法訪問google的,如果我們需要訪問,就需要通過一層代理去轉發。這個正向代理代理的是服務端(也就是google),而反向代理則相反,代理的是客戶端(也就是用戶),用戶的請求到達nginx后,nginx會代理用戶的請求向實際的后端服務發起請求,并將結果返回給用戶。

(圖片來自維基百科)

正向代理和反向代理實際上是站在用戶的角度來定義的,正向也就是代理用戶所要請求的服務,而反向則是代理用戶向服務發起請求。兩者一個很重要的區別:

正向代理服務方不感知請求方,反向代理請求方不感知服務方。
思考一下上面的例子,你通過代理訪問google時,google只能感知到請求來自代理服務器,而無法直接感知到你(當然通過cookie等手段也可以追蹤到);而通過nginx反向代理時,你是不感知請求具體被轉發到哪個后端服務器上的。

nginx最常被用于反向代理的場景就是我們所熟知的http協議,通過配置nginx.conf文件可以很簡單地定義一個反向代理規則:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       80;
        server_name  localhost;

        
        location / {
            proxy_pass http://domain;
        }
    }
}

nginx從1.13.10以后就支持gRPC協議的反向代理,配置類似:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       81 http2;
        server_name  localhost;

        
        location / {
            grpc_pass http://ip;
        }
    }
}

但是當需求場景更加復雜的時候,就發現nginx的gRPC模塊實際上有很多坑,實現的能力不如http完整,當套用http的解決方案時就會出現問題

場景

最開始我們的場景很簡單,通過gRPC協議實現一個簡單的C/S架構:

但這種單純的直連有些場景下是不可行的,例如client和server在兩個網絡環境下,彼此不相連通,那就無法通過簡單的gRPC連接訪問服務。一種解決辦法是通過中間的代理服務器轉發,用上面說的nginx反向代理gRPC方法:

nginx proxy部署在兩個環境都能訪問的集群上,這樣就實現了跨網絡環境的gRPC訪問。隨之而來的問題是如何配置這個路由規則?注意我們最開始的gRPC的目標節點都是清晰的,也就是server1和server2的ip地址,當中間加了一層nginx proxy后,client發起的gRPC請求的對象都是nginx proxy的ip地址。那client與nginx建立連接后,nginx如何知道需要將請求轉發給server1還是server2呢?(這里server1和server2不是簡單的同一個服務的冗備部署,可能需要根據請求的屬性決定由誰響應,例如用戶id等,因此不能使用負載均衡隨機挑選一個響應請求)

解決辦法

如果是http協議,那有很多實現方法:

通過路徑區分

請求將server的信息添加在path里,例如:/server1/service/method,然后nginx轉發請求的時候還原為原始的請求:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       80;
        server_name  localhost;

        location ~ ^/server1/ {
            proxy_pass http://domain1/;
        }
        
        location ~ ^/server2/ {
            proxy_pass http://domain2/;
        }
    }
}

注意http://domain/最后的斜杠,如果沒有這個斜杠請求的路徑會是/server1/service/method,而服務端只能響應/service/method的請求,這樣就會報404的錯誤。

通過請求參數區分

也可以將server1的信息放在請求參數里:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       80;
        server_name  localhost;

        location /service/method {
            if ($query_string ~ x_server=(.*)) {
                proxy_pass http://$1;
            }
        }
    }
}

但對于gRPC就沒這么簡單了,首先gRPC不支持URI的寫法,nginx轉發的請求會保留原來的path,無法在轉發的時候修改path,這意味著上述的第一種辦法不可行。其次gRPC是基于HTTP 2.0協議的,HTTP2沒有queryString這一概念,請求頭里有一項:path代表請求的路徑,例如/service/method,而這一路徑是不能攜帶請求參數的,也就是:path不能寫為/service/method?server=server1。這意味著上述的第二種方法也不可行。

注意到HTTP2中請求頭:path是指定請求的路徑的,那我們直接修改:path不就行了嗎:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       80 http2;
        server_name  localhost;

        location ~ ^/(.*)/service/.* {
            grpc_set_header :path /service/$2;
            grpc_pass http://$1;
        }
    }
}

但是實際驗證表明這種方法也不可行,直接修改:path的請求頭會導致服務端報錯,一種可能的錯誤如下:

rpc error: code = Unavailable desc = Bad Gateway: HTTP status code 502; transport: received the unexpected content-type "text/html"

抓包后發現,grpc_set_header并沒有覆蓋:path的結果,而是新增了一項請求頭,相當于請求header里存在兩個:path,可能就是因為這個原因導致服務端報了502的錯誤。

山窮水盡之際想起gRPC的metadata功能,我們可以在client端將server的信息存儲在metadata中,然后在nginx路由時根據metadata中server的信息轉發給對應的后端服務,這樣就實現了我們的需求。對于go語言,設置metadata需要實現PerRPCCredentials接口,然后在發起連接的時候傳入這個實現類的實例:

type extraMetadata struct {
    Ip string
}

func (c extraMetadata) GetRequestMetadata(ctx context.Context, uri ...string) (map[string]string, error) {
    return map[string]string{
        "x-ip": c.Ip,
    }, nil
}

func (c extraMetadata) RequireTransportSecurity() bool {
    return false
}

func main(){
    ...
    // nginxProxy是nginx proxy的ip或域名地址
    var nginxProxy string
    // serverIp是根據請求屬性計算好的后端服務的ip
    var serverIp string
    con, err := grpc.Dial(nginxProxy, grpc.WithInsecure(),
        grpc.WithPerRPCCredentials(extraMetadata{Ip: serverIp}))
}

然后在nginx配置里根據這個metadata轉發到對應的server:

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    server {
        listen       80 http2;
        server_name  localhost;

        location ~ ^/service/.* {
            grpc_pass grpc://$http_x_ip:8200;
        }
    }
}

注意這里使用了$http_x_ip這一語法引用了我們傳遞的x-ip這個metadata信息。這一方法驗證有效,client可以通過nginx proxy成功訪問到server的gRPC服務。

總結

nginx的gRPC模塊的文檔太少了,官方文檔只給出了幾個指令的用途,并沒有說明metadata這一方法,網上的文檔也鮮有涉及,導致花了兩三天的時間在排查。將整個過程總結在這里,希望能幫助到遇到同一問題的人。

到此這篇關于nginx作grpc的反向代理踩坑總結的文章就介紹到這了,更多相關nginx grpc反向代理內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

標簽:周口 銅川 松原 泰州 慶陽 蕪湖 那曲 朝陽

巨人網絡通訊聲明:本文標題《nginx作grpc的反向代理踩坑總結》,本文關鍵詞  nginx,作,grpc,的,反向,代理,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《nginx作grpc的反向代理踩坑總結》相關的同類信息!
  • 本頁收集關于nginx作grpc的反向代理踩坑總結的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 日本大片aa特黄| 撅着屁股边挨脔边挨打屁股| 婬荡奶妓高H被脔日常沈清清| 《金花瓶楷梅花2》观看| 18女人毛片水真多免费| 大乳护士喂奶三级hd| 污文play| 黑料正能量网站入口| 日韩激情影院莉莉| 耻辱の中出し授业大桥未久字幕| 99热网址| 囯产婬乱男女啪啪喷水多水| 国产免费一级高清淫日本片| 免费观看无遮挡黄漫漫画| 折磨美男玉势h不准排泄| 麻豆久久婬片AA片在線觀看 | 肥肥婆xxxx0ooo| 综合久久久久综合体桃花网 | 农村妇女野战A片| 福利一区福利二区微拍| 艳妇荡岳丰满交换做爰大片| 3d美女被吸乳脱动漫漫画| 啊灬啊灬啊灬快灬深用力点岳| 日本大学生三级及| 红桃kht75.vip怎么打开| furry本子污r| 神枪狙击手免费完整观看| 欧美bb视频| 亚洲AV一区二区大桥未久| 漫画羞羞的漫| 天码毛片一区二区三区入口| 边吃奶边扎下很爽视频| 把大明星调教成专属奴h| 小骚包娇喘抽搐喷潮h动态图图片| 天美传媒麻豆TM0034| 香蕉视频app下载污| 每章都带肉的小说| 欧美a一片xxxx片| 性暴力档案之三奸2电影| 双乳太丰满老女人| 国产精品玩偶在线观看|