redis緩存與數據庫一致性的問題及解決
一、需求起因
假設先寫數據庫,再淘汰緩存:第一步寫數據庫操作成功,第二步淘汰緩存失敗,則會出現(xiàn)DB中是新數據,Cache中是舊數據,數據不一致【db中是新數據,cache中是舊數據】。
假設先淘汰緩存,再寫數據庫:第一步淘汰緩存成功,第二步寫數據庫失敗【cache中無數據,db中是舊數據】。
結論:先淘汰緩存,再寫數據庫。
二、數據不一致原因
先操作緩存,在寫數據庫成功之前,如果有讀請求發(fā)生,可能導致舊數據入緩存,引發(fā)數據不一致。
寫流程
1)先淘汰cache
2)再寫db
讀流程
1)先讀cache,如果數據命中hit則返回
2)如果數據未命中miss則讀db
3)將db中讀取出來的數據入緩存
什么情況下可能出現(xiàn)緩存和數據庫中數據不一致呢?
在分布式環(huán)境下,數據的讀寫都是并發(fā)的,上游有多個應用,通過一個服務的多個部署(為了保證可用性,一定是部署多份的),對同一個數據進行讀寫,在數據庫層面并發(fā)的讀寫并不能保證完成順序,也就是說后發(fā)出的讀請求很可能先完成(讀出臟數據):
- a)發(fā)生了寫請求A,A的第一步淘汰了cache(如上圖中的1)
- b)A的第二步寫數據庫,發(fā)出修改請求(如上圖中的2)
- c)發(fā)生了讀請求B,B的第一步讀取cache,發(fā)現(xiàn)cache中是空的(如上圖中的步驟3)
- d)B的第二步讀取數據庫,發(fā)出讀取請求,此時A的第二步寫數據還沒完成,讀出了一個臟數據放入cache(如上圖中的步驟4)
即在數據庫層面,后發(fā)出的請求4比先發(fā)出的請求2先完成了,讀出了臟數據,臟數據又入了緩存,緩存與數據庫中的數據不一致出現(xiàn)了
三、問題解決思路
能否做到先發(fā)出的請求一定先執(zhí)行完成呢?常見的思路是“串行化”
細節(jié)如下:
1)service的上游是多個業(yè)務應用,上游發(fā)起請求對同一個數據并發(fā)的進行讀寫操作,上例中并發(fā)進行了一個uid=1的余額修改(寫)操作與uid=1的余額查詢(讀)操作
2)service的下游是數據庫DB,假設只讀寫一個DB
3)中間是服務層service,它又分為了這么幾個部分
- 3.1)最上層是任務隊列
- 3.2)中間是工作線程,每個工作線程完成實際的工作任務,典型的工作任務是通過數據庫連接池讀寫數據庫
- 3.3)最下層是數據庫連接池,所有的SQL語句都是通過數據庫連接池發(fā)往數據庫去執(zhí)行的
工作線程的典型工作流是這樣的:
void work_thread_routine(){ Task t = TaskQueue.pop(); // 獲取任務 // 任務邏輯處理,生成sql語句 DBConnection c = CPool.GetDBConnection(); // 從DB連接池獲取一個DB連接 c.execSQL(sql); // 通過DB連接執(zhí)行sql語句 CPool.PutDBConnection(c); // 將DB連接放回DB連接池 }
提問:任務隊列其實已經做了任務串行化的工作,能否保證任務不并發(fā)執(zhí)行?
答:不行,因為
(1)1個服務有多個工作線程,串行彈出的任務會被并行執(zhí)行
(2)1個服務有多個數據庫連接,每個工作線程獲取不同的數據庫連接會在DB層面并發(fā)執(zhí)行
提問:假設服務只部署一份,能否保證任務不并發(fā)執(zhí)行?
答:不行,原因同上
提問:假設1個服務只有1條數據庫連接,能否保證任務不并發(fā)執(zhí)行?
答:不行,因為
(1)1個服務只有1條數據庫連接,只能保證在一個服務器上的請求在數據庫層面是串行執(zhí)行的
(2)因為服務是分布式部署的,多個服務上的請求在數據庫層面仍可能是并發(fā)執(zhí)行的
提問:假設服務只部署一份,且1個服務只有1條連接,能否保證任務不并發(fā)執(zhí)行?
答:可以,全局來看請求是串行執(zhí)行的,吞吐量很低,并且服務無法保證可用性
完了,看似無望了,
1)任務隊列不能保證串行化
2)單服務多數據庫連接不能保證串行化
3)多服務單數據庫連接不能保證串行化
4)單服務單數據庫連接可能保證串行化,但吞吐量級低,且不能保證服務的可用性,幾乎不可行,那是否還有解?
解決方式
- 退一步想,其實不需要讓全局的請求串行化,而只需要“讓同一個數據的訪問能串行化”就行。
- 在一個服務內,如何做到“讓同一個數據的訪問串行化”,只需要“讓同一個數據的訪問通過同一條DB連接執(zhí)行”就行。
- 如何做到“讓同一個數據的訪問通過同一條DB連接執(zhí)行”,只需要“在DB連接池層面稍微修改,按數據取連接即可”
- 獲取DB連接的CPool.GetDBConnection()【返回任何一個可用DB連接】改為
- CPool.GetDBConnection(longid)【返回id取模相關聯(lián)的DB連接】
這個修改的好處是:
1)簡單,只需要修改DB連接池實現(xiàn),以及DB連接獲取處
2)連接池的修改不需要關注業(yè)務,傳入的id是什么含義連接池不關注,直接按照id取模返回DB連接即可
3)可以適用多種業(yè)務場景,取用戶數據業(yè)務傳入user-id取連接,取訂單數據業(yè)務傳入order-id取連接即可
這樣的話,就能夠保證同一個數據例如uid在數據庫層面的執(zhí)行一定是串行的
稍等稍等,服務可是部署了很多份的,上述方案只能保證同一個數據在一個服務上的訪問,在DB層面的執(zhí)行是串行化的,實際上服務是分布式部署的,在全局范圍內的訪問仍是并行的,怎么解決呢?能不能做到同一個數據的訪問一定落到同一個服務呢?
能否做到同一個數據的訪問落在同一個服務上?
上面分析了服務層service的上下游及內部結構,再一起看一下應用層上下游及內部結構
上圖是一個業(yè)務應用的上下游及服務內部詳細展開,細節(jié)如下:
1)業(yè)務應用的上游不確定是啥,可能是直接是http請求,可能也是一個服務的上游調用
2)業(yè)務應用的下游是多個服務service
3)中間是業(yè)務應用,它又分為了這么幾個部分
- 3.1)最上層是任務隊列【或許web-server例如tomcat幫你干了這個事情了】
- 3.2)中間是工作線程【或許web-server的工作線程或者cgi工作線程幫你干了線程分派這個事情了】,每個工作線程完成實際的業(yè)務任務,典型的工作任務是通過服務連接池進行RPC調用
- 3.3)最下層是服務連接池,所有的RPC調用都是通過服務連接池往下游服務去發(fā)包執(zhí)行的
工作線程的典型工作流是這樣的:
voidwork_thread_routine(){ Task t = TaskQueue.pop(); // 獲取任務 // 任務邏輯處理,組成一個網絡包packet,調用下游RPC接口 ServiceConnection c = CPool.GetServiceConnection(); // 從Service連接池獲取一個Service連接 c.Send(packet); // 通過Service連接發(fā)送報文執(zhí)行RPC請求 CPool.PutServiceConnection(c); // 將Service連接放回Service連接池 }
似曾相識吧?沒錯,只要對服務連接池進行少量改動:
獲取Service連接的CPool.GetServiceConnection()【返回任何一個可用Service連接】改為CPool.GetServiceConnection(longid)【返回id取模相關聯(lián)的Service連接】這樣的話,就能夠保證同一個數據例如uid的請求落到同一個服務Service上。
由于數據庫層面的讀寫并發(fā),引發(fā)的數據庫與緩存數據不一致的問題(本質是后發(fā)生的讀請求先返回了),可能通過兩個小的改動解決:
1)修改服務Service連接池,id取模選取服務連接,能夠保證同一個數據的讀寫都落在同一個后端服務上
2)修改數據庫DB連接池,id取模選取DB連接,能夠保證同一個數據的讀寫在數據庫層面是串行的
四、總結
本篇文章的作用在于提出分布式緩存的問題
實現(xiàn)思路還可以是分布式鎖,這里只是拋磚引玉
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
一次關于Redis內存詭異增長的排查過程實戰(zhàn)記錄
這篇文章主要給大家分享了一次關于Redis內存詭異增長的排查過程實戰(zhàn)記錄,文中通過示例代碼介紹的非常詳細,對大家學習或者使用Redis具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2018-07-07詳解redis腳本命令執(zhí)行問題(redis.call)
這篇文章主要介紹了redis腳本命令執(zhí)行問題(redis.call),分別介紹了redis-cli命令行中執(zhí)行及l(fā)inux命令行中執(zhí)行問題,本文給大家介紹的非常詳細,需要的朋友參考下吧2022-03-03Windows環(huán)境下查看、添加、修改redis數據庫的密碼兩種方式
在Windows系統(tǒng)上設置Redis密碼的過程與Linux系統(tǒng)類似,但需注意幾個關鍵步驟以確保正確配置,這篇文章主要給大家介紹了關于Windows環(huán)境下查看、添加、修改redis數據庫的密碼兩種方式,需要的朋友可以參考下2024-07-07