• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            牽著老婆滿街逛

            嚴以律己,寬以待人. 三思而后行.
            GMail/GTalk: yanglinbo#google.com;
            MSN/Email: tx7do#yahoo.com.cn;
            QQ: 3 0 3 3 9 6 9 2 0 .

            利用memcached構(gòu)建高性能的Web應(yīng)用程序

            轉(zhuǎn)載自:http://it.dianping.com/use-memcached-to-build-high-performance-web-application.htm

            面臨的問題

            對于高并發(fā)高訪問的Web應(yīng)用程序來說,數(shù)據(jù)庫存取瓶頸一直是個令人頭疼的問題。特別當(dāng)你的程序架構(gòu)還是建立在單數(shù)據(jù)庫模式,而一個數(shù)據(jù)池連接數(shù)峰值已經(jīng)達到500的時候,那你的程序運行離崩潰的邊緣也不遠了。很多小網(wǎng)站的開發(fā)人員一開始都將注意力放在了產(chǎn)品需求設(shè)計上,缺忽視了程序整體性能,可擴展性等方面的考慮,結(jié)果眼看著訪問量一天天網(wǎng)上爬,可突然發(fā)現(xiàn)有一天網(wǎng)站因為訪問量過大而崩潰了,到時候哭都來不及。所以我們一定要未雨綢繆,在數(shù)據(jù)庫還沒罷工前,想方設(shè)法給它減負,這也是這篇文章的主要議題。

            大家都知道,當(dāng)有一個request過來后,web服務(wù)器交給app服務(wù)器,app處理并從db中存取相關(guān)數(shù)據(jù),但db存取的花費是相當(dāng)高昂的。特別是每次都取相同的數(shù)據(jù),等于是讓數(shù)據(jù)庫每次都在做高耗費的無用功,數(shù)據(jù)庫如果會說話,肯定會發(fā)牢騷,你都問了這么多遍了,難道還記不住嗎?是啊,如果app拿到第一次數(shù)據(jù)并存到內(nèi)存里,下次讀取時直接從內(nèi)存里讀取,而不用麻煩數(shù)據(jù)庫,這樣不就給數(shù)據(jù)庫減負了?而且從內(nèi)存取數(shù)據(jù)必然要比從數(shù)據(jù)庫媒介取快很多倍,反而提升了應(yīng)用程序的性能。

            因此,我們可以在web/app層與db層之間加一層cache層,主要目的:1. 減少數(shù)據(jù)庫讀取負擔(dān);2. 提高數(shù)據(jù)讀取速度。而且,cache存取的媒介是內(nèi)存,而一臺服務(wù)器的內(nèi)存容量一般都是有限制的,不像硬盤容量可以做到TB級別。所以,可以考慮采用分布式的cache層,這樣更易于破除內(nèi)存容量的限制,同時又增加了靈活性。

            Memcached 介紹

            Memcached是開源的分布式cache系統(tǒng),現(xiàn)在很多的大型web應(yīng)用程序包括facebook,youtube,wikipedia,yahoo等等都在使用memcached來支持他們每天數(shù)億級的頁面訪問。通過把cache層與他們的web架構(gòu)集成,他們的應(yīng)用程序在提高了性能的同時,還大大降低了數(shù)據(jù)庫的負載。
            具體的memcached資料大家可以直接從它的官方網(wǎng)站[1]上得到。這里我就簡單給大家介紹一下memcached的工作原理:

            Memcached處理的原子是每一個(key,value)對(以下簡稱kv對),key會通過一個hash算法轉(zhuǎn)化成hash-key,便于查找、對比以及做到盡可能的散列。同時,memcached用的是一個二級散列,通過一張大hash表來維護。

            Memcached有兩個核心組件組成:服務(wù)端(ms)和客戶端(mc),在一個memcached的查詢中,mc先通過計算key的hash值來確定kv對所處在的ms位置。當(dāng)ms確定后,客戶端就會發(fā)送一個查詢請求給對應(yīng)的ms,讓它來查找確切的數(shù)據(jù)。因為這之間沒有交互以及多播協(xié)議,所以memcached交互帶給網(wǎng)絡(luò)的影響是最小化的。

            舉例說明:考慮以下這個場景,有三個mc分別是X,Y,Z,還有三個ms分別是A,B,C:

            設(shè)置kv對
            X想設(shè)置key=”foo”,value=”seattle”
            X拿到ms列表,并對key做hash轉(zhuǎn)化,根據(jù)hash值確定kv對所存的ms位置
            B被選中了
            X連接上B,B收到請求,把(key=”foo”,value=”seattle”)存了起來

            獲取kv對
            Z想得到key=”foo”的value
            Z用相同的hash算法算出hash值,并確定key=”foo”的值存在B上
            Z連接上B,并從B那邊得到value=”seattle”
            其他任何從X,Y,Z的想得到key=”foo”的值的請求都會發(fā)向B

            Memcached服務(wù)器(ms)

            內(nèi)存分配

            默認情況下,ms是用一個內(nèi)置的叫“塊分配器”的組件來分配內(nèi)存的。舍棄c++標(biāo)準的malloc/free的內(nèi)存分配,而采用塊分配器的主要目的是為了避免內(nèi)存碎片,否則操作系統(tǒng)要花費更多時間來查找這些邏輯上連續(xù)的內(nèi)存塊(實際上是斷開的)。用了塊分配器,ms會輪流的對內(nèi)存進行大塊的分配,并不斷重用。當(dāng)然由于塊的大小各不相同,當(dāng)數(shù)據(jù)大小和塊大小不太相符的情況下,還是有可能導(dǎo)致內(nèi)存的浪費。

            同時,ms對key和data都有相應(yīng)的限制,key的長度不能超過250字節(jié),data也不能超過塊大小的限制 --- 1MB。
            因為mc所使用的hash算法,并不會考慮到每個ms的內(nèi)存大小。理論上mc會分配概率上等量的kv對給每個ms,這樣如果每個ms的內(nèi)存都不太一樣,那可能會導(dǎo)致內(nèi)存使用率的降低。所以一種替代的解決方案是,根據(jù)每個ms的內(nèi)存大小,找出他們的最大公約數(shù),然后在每個ms上開n個容量=最大公約數(shù)的instance,這樣就等于擁有了多個容量大小一樣的子ms,從而提供整體的內(nèi)存使用率。

            緩存策略

            當(dāng)ms的hash表滿了之后,新的插入數(shù)據(jù)會替代老的數(shù)據(jù),更新的策略是LRU(最近最少使用),以及每個kv對的有效時限。Kv對存儲有效時限是在mc端由app設(shè)置并作為參數(shù)傳給ms的。

            同時ms采用是偷懶替代法,ms不會開額外的進程來實時監(jiān)測過時的kv對并刪除,而是當(dāng)且僅當(dāng),新來一個插入的數(shù)據(jù),而此時又沒有多余的空間放了,才會進行清除動作。

            緩存數(shù)據(jù)庫查詢
            現(xiàn)在memcached最流行的一種使用方式是緩存數(shù)據(jù)庫查詢,下面舉一個簡單例子說明:

            App需要得到userid=xxx的用戶信息,對應(yīng)的查詢語句類似:

            “SELECT * FROM users WHERE userid = xxx”

            App先去問cache,有沒有“user:userid”(key定義可預(yù)先定義約束好)的數(shù)據(jù),如果有,返回數(shù)據(jù);如果沒有,App會從數(shù)據(jù)庫中讀取數(shù)據(jù),并調(diào)用cache的add函數(shù),把數(shù)據(jù)加入cache中。

            當(dāng)取的數(shù)據(jù)需要更新,app會調(diào)用cache的update函數(shù),來保持數(shù)據(jù)庫與cache的數(shù)據(jù)同步。

            從上面的例子我們也可以發(fā)現(xiàn),一旦數(shù)據(jù)庫的數(shù)據(jù)發(fā)現(xiàn)變化,我們一定要及時更新cache中的數(shù)據(jù),來保證app讀到的是同步的正確數(shù)據(jù)。當(dāng)然我們可以通過定時器方式記錄下cache中數(shù)據(jù)的失效時間,時間一過就會激發(fā)事件對cache進行更新,但這之間總會有時間上的延遲,導(dǎo)致app可能從cache讀到臟數(shù)據(jù),這也被稱為狗洞問題。(以后我會專門描述研究這個問題)

            數(shù)據(jù)冗余與故障預(yù)防

            從設(shè)計角度上,memcached是沒有數(shù)據(jù)冗余環(huán)節(jié)的,它本身就是一個大規(guī)模的高性能cache層,加入數(shù)據(jù)冗余所能帶來的只有設(shè)計的復(fù)雜性和提高系統(tǒng)的開支。

            當(dāng)一個ms上丟失了數(shù)據(jù)之后,app還是可以從數(shù)據(jù)庫中取得數(shù)據(jù)。不過更謹慎的做法是在某些ms不能正常工作時,提供額外的ms來支持cache,這樣就不會因為app從cache中取不到數(shù)據(jù)而一下子給數(shù)據(jù)庫帶來過大的負載。

            同時為了減少某臺ms故障所帶來的影響,可以使用“熱備份”方案,就是用一臺新的ms來取代有問題的ms,當(dāng)然新的ms還是要用原來ms的IP地址,大不了數(shù)據(jù)重新裝載一遍。

            另外一種方式,就是提高你ms的節(jié)點數(shù),然后mc會實時偵查每個節(jié)點的狀態(tài),如果發(fā)現(xiàn)某個節(jié)點長時間沒有響應(yīng),就會從mc的可用server列表里刪除,并對server節(jié)點進行重新hash定位。當(dāng)然這樣也會造成的問題是,原本key存儲在B上,變成存儲在C上了。所以此方案本身也有其弱點,最好能和“熱備份”方案結(jié)合使用,就可以使故障造成的影響最小化。

            Memcached客戶端(mc)

            Memcached客戶端有各種語言的版本供大家使用,包括java,c,php,.net等等,具體可參見memcached api page[2]。
            大家可以根據(jù)自己項目的需要,選擇合適的客戶端來集成。

            緩存式的Web應(yīng)用程序架構(gòu)
            有了緩存的支持,我們可以在傳統(tǒng)的app層和db層之間加入cache層,每個app服務(wù)器都可以綁定一個mc,每次數(shù)據(jù)的讀取都可以從ms中取得,如果沒有,再從db層讀取。而當(dāng)數(shù)據(jù)要進行更新時,除了要發(fā)送update的sql給db層,同時也要將更新的數(shù)據(jù)發(fā)給mc,讓mc去更新ms中的數(shù)據(jù)。

            假設(shè)今后我們的數(shù)據(jù)庫可以和ms進行通訊了,那可以將更新的任務(wù)統(tǒng)一交給db層,每次數(shù)據(jù)庫更新數(shù)據(jù)的同時會自動去更新ms中的數(shù)據(jù),這樣就可以進一步減少app層的邏輯復(fù)雜度。如下圖:

            不過每次我們?nèi)绻麤]有從cache讀到數(shù)據(jù),都不得不麻煩數(shù)據(jù)庫。為了最小化數(shù)據(jù)庫的負載壓力,我們可以部署數(shù)據(jù)庫復(fù)寫,用slave數(shù)據(jù)庫來完成讀取操作,而master數(shù)據(jù)庫永遠只負責(zé)三件事:1.更新數(shù)據(jù);2.同步slave數(shù)據(jù)庫;3.更新cache。如下圖:

            以上這些緩存式web架構(gòu)在實際應(yīng)用中被證明是能有效并能極大地降低數(shù)據(jù)庫的負載同時又能提高web的運行性能。當(dāng)然這些架構(gòu)還可以根據(jù)具體的應(yīng)用環(huán)境進行變種,以達到不同硬件條件下性能的最優(yōu)化。

            未來的憧憬
            Memcached的出現(xiàn)可以說是革命性的,第一次讓我們意識到可以用內(nèi)存作為存儲媒介來大規(guī)模的緩存數(shù)據(jù)以提高程序的性能。不過它畢竟還是比較新的東西,還需要很多有待優(yōu)化和改進的地方,例如:
            如何利用memcached實現(xiàn)cache數(shù)據(jù)庫,讓數(shù)據(jù)庫跑在內(nèi)存上。這方面,tangent software 開發(fā)的memcached_engine[3]已經(jīng)做了不少工作,不過現(xiàn)在的版本還只是處于實驗室階段。
            如何能方便有效的進行批量key清理。因為現(xiàn)在key是散列在不同的server上的,所以對某類key進行大批量清理是很麻煩的。因為memcached本身是一個大hash表,是不具備key的檢索功能的。所以memcached是壓根不知道某一類的key到底存了多少個,都存在哪些server上。而這類功能在實際應(yīng)用中卻是經(jīng)常用到。

            交流
            作者也是剛接觸memcached方面的內(nèi)容,所以嚴格來說還只是個新手,班門弄斧地說了一大通,如果有不對的地方,還請各位大俠多多指正。當(dāng)然,如果有什么和memcached方面有關(guān)的問題或建議,也歡迎和我聯(lián)系。
            聯(lián)系Email: rongwei.yang@dianping.com

            參考
            [1]. Memcached website: http://danga.com/memcached/
            [2]. Memcached API Page: http://danga.com/memcached/apis.bml
            [3]. memcached_engine: http://tangent.org/506/memcache_engine.html

            posted on 2012-05-03 14:41 楊粼波 閱讀(1319) 評論(0)  編輯 收藏 引用


            只有注冊用戶登錄后才能發(fā)表評論。
            網(wǎng)站導(dǎo)航: 博客園   IT新聞   BlogJava   博問   Chat2DB   管理


            久久久久久狠狠丁香| 色综合合久久天天综合绕视看| 亚洲人AV永久一区二区三区久久 | 久久亚洲AV成人无码国产 | 亚洲成av人片不卡无码久久| 亚洲精品无码久久久| 久久无码专区国产精品发布| 久久精品黄AA片一区二区三区| 国产女人aaa级久久久级| 亚洲人成无码久久电影网站| 精品久久久久久无码中文字幕一区| 狠狠干狠狠久久| 亚洲午夜久久久| 99久久夜色精品国产网站| 狠狠色噜噜色狠狠狠综合久久| 国产精品久久久久天天影视| 久久国产色av免费看| 久久激情亚洲精品无码?V| 国产精品久久久久久| 久久久久久久久久久| 久久精品不卡| 久久久久黑人强伦姧人妻| 久久发布国产伦子伦精品 | .精品久久久麻豆国产精品| 欧美一区二区久久精品| 99热精品久久只有精品| 久久精品中文无码资源站| 久久人人爽人人人人爽AV| 四虎影视久久久免费观看| 国产午夜精品久久久久九九| 久久99精品国产99久久6男男| 久久亚洲私人国产精品vA| 国内精品九九久久精品| 少妇被又大又粗又爽毛片久久黑人 | 久久久久婷婷| 久久这里只有精品视频99| 久久久WWW免费人成精品| 国产午夜精品理论片久久| 久久综合九色综合精品| 国产午夜精品理论片久久 | 国产精品青草久久久久福利99 |