天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于Nginx的服務(wù)器集群負(fù)載均衡策略的研究與改進(jìn)

發(fā)布時(shí)間:2021-01-21 03:57
  隨著互聯(lián)網(wǎng)技術(shù)的廣泛普及,網(wǎng)絡(luò)流量和網(wǎng)絡(luò)用戶基數(shù)越來越大,單一服務(wù)器在應(yīng)對爆炸式增長的并發(fā)訪問請求時(shí)承受巨大的負(fù)載壓力,會(huì)出現(xiàn)響應(yīng)延遲的情況。目前解決這一問題的有效方案是搭建基于Nginx的服務(wù)器集群系統(tǒng),而負(fù)載均衡作為集群系統(tǒng)的研究重點(diǎn)備受關(guān)注。負(fù)載均衡主要通過將大量請求合理分發(fā)給集群各服務(wù)器進(jìn)行處理以提升整個(gè)系統(tǒng)的吞吐量、資源利用率并降低請求的響應(yīng)時(shí)間。因此負(fù)載均衡策略的優(yōu)劣對集群系統(tǒng)性能的提升起著至關(guān)重要的作用。本文通過研究Nginx的核心數(shù)據(jù)結(jié)構(gòu)、進(jìn)程工作模型、配置文件系統(tǒng)、反向代理機(jī)制、負(fù)載均衡策略以及源碼模塊結(jié)構(gòu),在Nginx加權(quán)輪詢算法的基礎(chǔ)上,提出一種動(dòng)態(tài)自適應(yīng)負(fù)載均衡算法。該算法通過采集服務(wù)器運(yùn)行時(shí)CPU、內(nèi)存、網(wǎng)絡(luò)帶寬、磁盤IO四項(xiàng)負(fù)載指標(biāo)利用率計(jì)算剩余負(fù)載權(quán)值,同時(shí)采集服務(wù)器最近一段時(shí)間內(nèi)處理請求的響應(yīng)時(shí)間信息計(jì)算響應(yīng)時(shí)間權(quán)值,并由以上兩部分權(quán)值得到服務(wù)器實(shí)時(shí)動(dòng)態(tài)權(quán)值。該算法還將所有服務(wù)器最近一次響應(yīng)時(shí)間的平均值作為閾值把服務(wù)器狀態(tài)劃分為輕載和重載,并將各輕載服務(wù)器的動(dòng)態(tài)權(quán)值作為權(quán)值因子用來調(diào)整Nginx加權(quán)輪詢算法中的權(quán)值參數(shù),從而達(dá)到根據(jù)服務(wù)器負(fù)載性能實(shí)時(shí)修改... 

【文章來源】:華南理工大學(xué)廣東省 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:77 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于Nginx的服務(wù)器集群負(fù)載均衡策略的研究與改進(jìn)


Netcraft2020年3月的統(tǒng)計(jì)報(bào)告以上具體的統(tǒng)計(jì)數(shù)據(jù)如表1-1所示,截至2020年3月,在共計(jì)1,263,025,546個(gè)站

負(fù)載均衡,服務(wù)器


第二章相關(guān)理論與技術(shù)研究9(3)負(fù)載均衡集群負(fù)載均衡集群是由多個(gè)處理請求的業(yè)務(wù)服務(wù)器和負(fù)責(zé)分發(fā)請求的負(fù)載均衡器組成的集群[21]。當(dāng)客戶端請求到來時(shí),負(fù)載均衡器一般不會(huì)直接對請求進(jìn)行處理,而是將請求依據(jù)其配置的負(fù)載均衡技術(shù)分發(fā)到上游集群各服務(wù)節(jié)點(diǎn),由上游服務(wù)節(jié)點(diǎn)處理并產(chǎn)生響應(yīng)。在大流量并發(fā)訪問場景下,該類集群能夠?qū)⒋罅空埱蠛侠矸謹(jǐn)偟礁鱾(gè)服務(wù)節(jié)點(diǎn),并結(jié)合集群自身架構(gòu)優(yōu)勢以快速高效的工作模式對持續(xù)性增長的業(yè)務(wù)請求進(jìn)行處理,以達(dá)到充分發(fā)揮集群服務(wù)器性能的目的。但是負(fù)載均衡集群存在一定缺陷,即負(fù)載均衡器無法對集群服務(wù)器運(yùn)行時(shí)負(fù)載狀況進(jìn)行監(jiān)控,因而分配請求時(shí)容易導(dǎo)致服務(wù)器過載或者空閑情況的出現(xiàn)。針對這種情況,該類集群將收集業(yè)務(wù)服務(wù)器動(dòng)態(tài)負(fù)載狀況的性能監(jiān)控程序部署在請求分發(fā)服務(wù)器上,通過該程序可以時(shí)時(shí)掌控上游服務(wù)器的負(fù)載性能變化。這種收集服務(wù)器負(fù)載狀態(tài)的集群系統(tǒng)持續(xù)性接收上游服務(wù)器的負(fù)載信息,可以及時(shí)剔除上游故障服務(wù)器,并能在該服務(wù)器隔段時(shí)間性能恢復(fù)后再次將其加入到集群中繼續(xù)對外服務(wù)。本論文的研究內(nèi)容即負(fù)載均衡集群,如圖2-2所示為負(fù)載均衡集群的基本結(jié)構(gòu)。圖2-2負(fù)載均衡集群基本結(jié)構(gòu)2.1.3服務(wù)端性能指標(biāo)服務(wù)器集群投入到實(shí)際生產(chǎn)環(huán)境之后,需要應(yīng)對各種錯(cuò)綜復(fù)雜的大流量網(wǎng)絡(luò)請求場景,這對服務(wù)器的性能提出了更高的要求。于是在服務(wù)器運(yùn)維過程中,需要針對不同的

內(nèi)存,情況,利用率,公式


華南理工大學(xué)碩士學(xué)位論文30由公式(3-7)可算得Linux系統(tǒng)CPU當(dāng)前的總時(shí)間T,單位為Jiffies:T=user+nice+system+idle+iowait+irq+softirq(3-7)本文計(jì)算CPU利用率采取的方法是:1)選取兩個(gè)間隔很短的時(shí)間點(diǎn)進(jìn)行采樣,使用公式(3-7)分別求取CPU總時(shí)間為1T、2T,通過公式(3-8)得到此間隔內(nèi)CPU的總時(shí)間total。21total=TT(3-8)2)通過公式(3-9)求取CPU在此時(shí)間間隔內(nèi)的空閑時(shí)間idle。21idle=idleidle(3-9)3)最后CPU利用率cpuU通過公式(3-10)計(jì)算得到。()/cpuUtotalidletotal(3-10)(2)內(nèi)存利用率在Linux系統(tǒng)啟動(dòng)后,/proc/meminfo文件將保存系統(tǒng)內(nèi)存各組成部分的使用詳情并做到實(shí)時(shí)數(shù)據(jù)更新。如圖3-4所示為讀取該文件獲取到的部分信息。圖3-4/proc/meminfo獲取內(nèi)存實(shí)時(shí)使用情況于是,內(nèi)存利用率memU可由公式(3-11)計(jì)算得到:1()/memUMemFreeBuffersCachedMemTotal(3-11)(3)網(wǎng)絡(luò)帶寬利用率如圖3-5所示,在Linux系統(tǒng)下的/proc/net/dev文件可以獲取到系統(tǒng)當(dāng)前各個(gè)網(wǎng)卡的網(wǎng)速及網(wǎng)絡(luò)包的收發(fā)情況。本文主要關(guān)心Receive和Transmit的bytes項(xiàng),表示該網(wǎng)口接收和發(fā)出網(wǎng)絡(luò)包的總大小,單位為字節(jié)(byte)。圖3-5/proc/net/dev獲取系統(tǒng)網(wǎng)絡(luò)帶寬參數(shù)


本文編號:2990412

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/guanlilunwen/ydhl/2990412.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶d1c77***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com