久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術文章
文章詳情頁

詳解Java TCC分布式事務實現原理

瀏覽:58日期:2022-08-13 17:14:34
概述

之前網上看到很多寫分布式事務的文章,不過大多都是將分布式事務各種技術方案簡單介紹一下。很多朋友看了還是不知道分布式事務到底怎么回事,在項目里到底如何使用。

所以這篇文章,就用大白話+手工繪圖,并結合一個電商系統的案例實踐,來給大家講清楚到底什么是 TCC 分布式事務。

業務場景介紹

咱們先來看看業務場景,假設你現在有一個電商系統,里面有一個支付訂單的場景。

詳解Java TCC分布式事務實現原理

那對一個訂單支付之后,我們需要做下面的步驟:

更改訂單的狀態為“已支付” 扣減商品庫存 給會員增加積分 創建銷售出庫單通知倉庫發貨

這是一系列比較真實的步驟,無論大家有沒有做過電商系統,應該都能理解。

進一步思考

好,業務場景有了,現在我們要更進一步,實現一個 TCC 分布式事務的效果。

什么意思呢?也就是說,[1] 訂單服務-修改訂單狀態,[2] 庫存服務-扣減庫存,[3] 積分服務-增加積分,[4] 倉儲服務-創建銷售出庫單。

上述這幾個步驟,要么一起成功,要么一起失敗,必須是一個整體性的事務。

舉個例子,現在訂單的狀態都修改為“已支付”了,結果庫存服務扣減庫存失敗。那個商品的庫存原來是 100 件,現在賣掉了 2 件,本來應該是 98 件了。

結果呢?由于庫存服務操作數據庫異常,導致庫存數量還是 100。這不是在坑人么,當然不能允許這種情況發生了!

但是如果你不用 TCC 分布式事務方案的話,就用個 Spring Cloud 開發這么一個微服務系統,很有可能會干出這種事兒來。

我們來看看下面的這個圖,直觀的表達了上述的過程:

詳解Java TCC分布式事務實現原理

所以說,我們有必要使用 TCC 分布式事務機制來保證各個服務形成一個整體性的事務。

上面那幾個步驟,要么全部成功,如果任何一個服務的操作失敗了,就全部一起回滾,撤銷已經完成的操作。

比如說庫存服務要是扣減庫存失敗了,那么訂單服務就得撤銷那個修改訂單狀態的操作,然后得停止執行增加積分和通知出庫兩個操作。

說了那么多,老規矩,給大家上一張圖,大伙兒順著圖來直觀的感受一下:

詳解Java TCC分布式事務實現原理

落地實現 TCC 分布式事務

那么現在到底要如何來實現一個 TCC 分布式事務,使得各個服務,要么一起成功?要么一起失敗呢?

大家稍安勿躁,我們這就來一步一步的分析一下。咱們就以一個 Spring Cloud 開發系統作為背景來解釋。

TCC 實現階段一:Try

首先,訂單服務那兒,它的代碼大致來說應該是這樣子的:

public class OrderService { // 庫存服務 @Autowired private InventoryService inventoryService; // 積分服務 @Autowired private CreditService creditService; // 倉儲服務 @Autowired private WmsService wmsService; // 對這個訂單完成支付 public void pay(){//對本地的的訂單數據庫修改訂單狀態為'已支付'orderDAO.updateStatus(OrderStatus.PAYED);//調用庫存服務扣減庫存inventoryService.reduceStock();//調用積分服務增加積分creditService.addCredit();//調用倉儲服務通知發貨wmsService.saleDelivery(); }}

如果你之前看過 Spring Cloud 架構原理那篇文章,同時對 Spring Cloud 有一定的了解的話,應該是可以理解上面那段代碼的。

其實就是訂單服務完成本地數據庫操作之后,通過 Spring Cloud 的 Feign 來調用其他的各個服務罷了。

但是光是憑借這段代碼,是不足以實現 TCC 分布式事務的啊?!兄弟們,別著急,我們對這個訂單服務修改點兒代碼好不好。

首先,上面那個訂單服務先把自己的狀態修改為:OrderStatus.UPDATING。

這是啥意思呢?也就是說,在 pay() 那個方法里,你別直接把訂單狀態修改為已支付啊!你先把訂單狀態修改為 UPDATING,也就是修改中的意思。

這個狀態是個沒有任何含義的這么一個狀態,代表有人正在修改這個狀態罷了。

然后呢,庫存服務直接提供的那個 reduceStock() 接口里,也別直接扣減庫存啊,你可以是凍結掉庫存。

舉個例子,本來你的庫存數量是 100,你別直接 100 - 2 = 98,扣減這個庫存!

你可以把可銷售的庫存:100 - 2 = 98,設置為 98 沒問題,然后在一個單獨的凍結庫存的字段里,設置一個 2。也就是說,有 2 個庫存是給凍結了。

積分服務的 addCredit() 接口也是同理,別直接給用戶增加會員積分。你可以先在積分表里的一個預增加積分字段加入積分。

比如:用戶積分原本是 1190,現在要增加 10 個積分,別直接 1190 + 10 = 1200 個積分啊!

你可以保持積分為 1190 不變,在一個預增加字段里,比如說 prepare_add_credit 字段,設置一個 10,表示有 10 個積分準備增加。

倉儲服務的 saleDelivery() 接口也是同理啊,你可以先創建一個銷售出庫單,但是這個銷售出庫單的狀態是“UNKNOWN”。

也就是說,剛剛創建這個銷售出庫單,此時還不確定它的狀態是什么呢!

上面這套改造接口的過程,其實就是所謂的 TCC 分布式事務中的第一個 T 字母代表的階段,也就是 Try 階段。

總結上述過程,如果你要實現一個 TCC 分布式事務,首先你的業務的主流程以及各個接口提供的業務含義,不是說直接完成那個業務操作,而是完成一個 Try 的操作。

這個操作,一般都是鎖定某個資源,設置一個預備類的狀態,凍結部分數據,等等,大概都是這類操作。

咱們來一起看看下面這張圖,結合上面的文字,再來捋一捋整個過程:

詳解Java TCC分布式事務實現原理

TCC 實現階段二:Confirm

然后就分成兩種情況了,第一種情況是比較理想的,那就是各個服務執行自己的那個 Try 操作,都執行成功了,Bingo!

這個時候,就需要依靠 TCC 分布式事務框架來推動后續的執行了。這里簡單提一句,如果你要玩兒 TCC 分布式事務,必須引入一款 TCC 分布式事務框架,比如國內開源的 ByteTCC、Himly、TCC-transaction。

否則的話,感知各個階段的執行情況以及推進執行下一個階段的這些事情,不太可能自己手寫實現,太復雜了。

如果你在各個服務里引入了一個 TCC 分布式事務的框架,訂單服務里內嵌的那個 TCC 分布式事務框架可以感知到,各個服務的 Try 操作都成功了。

此時,TCC 分布式事務框架會控制進入 TCC 下一個階段,第一個 C 階段,也就是 Confirm 階段。

為了實現這個階段,你需要在各個服務里再加入一些代碼。比如說,訂單服務里,你可以加入一個 Confirm 的邏輯,就是正式把訂單的狀態設置為“已支付”了,大概是類似下面這樣子:

public class OrderServiceConfirm { public void pay(){orderDao.updateStatus(OrderStatus.PAYED); }}

庫存服務也是類似的,你可以有一個 InventoryServiceConfirm 類,里面提供一個 reduceStock() 接口的 Confirm 邏輯,這里就是將之前凍結庫存字段的 2 個庫存扣掉變為 0。

這樣的話,可銷售庫存之前就已經變為 98 了,現在凍結的 2 個庫存也沒了,那就正式完成了庫存的扣減。

積分服務也是類似的,可以在積分服務里提供一個 CreditServiceConfirm 類,里面有一個 addCredit() 接口的 Confirm 邏輯,就是將預增加字段的 10 個積分扣掉,然后加入實際的會員積分字段中,從 1190 變為 1120。

倉儲服務也是類似,可以在倉儲服務中提供一個 WmsServiceConfirm 類,提供一個 saleDelivery() 接口的 Confirm 邏輯,將銷售出庫單的狀態正式修改為“已創建”,可以供倉儲管理人員查看和使用,而不是停留在之前的中間狀態“UNKNOWN”了。

好了,上面各種服務的 Confirm 的邏輯都實現好了,一旦訂單服務里面的 TCC 分布式事務框架感知到各個服務的 Try 階段都成功了以后,就會執行各個服務的 Confirm 邏輯。

訂單服務內的 TCC 事務框架會負責跟其他各個服務內的 TCC 事務框架進行通信,依次調用各個服務的 Confirm 邏輯。然后,正式完成各個服務的所有業務邏輯的執行。

同樣,給大家來一張圖,順著圖一起來看看整個過程:

詳解Java TCC分布式事務實現原理

TCC 實現階段三:Cancel

好,這是比較正常的一種情況,那如果是異常的一種情況呢?

舉個例子:在 Try 階段,比如積分服務吧,它執行出錯了,此時會怎么樣?

那訂單服務內的 TCC 事務框架是可以感知到的,然后它會決定對整個 TCC 分布式事務進行回滾。

也就是說,會執行各個服務的第二個 C 階段,Cancel 階段。同樣,為了實現這個 Cancel 階段,各個服務還得加一些代碼。

首先訂單服務,它得提供一個 OrderServiceCancel 的類,在里面有一個 pay() 接口的 Cancel 邏輯,就是可以將訂單的狀態設置為“CANCELED”,也就是這個訂單的狀態是已取消。

庫存服務也是同理,可以提供 reduceStock() 的 Cancel 邏輯,就是將凍結庫存扣減掉 2,加回到可銷售庫存里去,98 + 2 = 100。

積分服務也需要提供 addCredit() 接口的 Cancel 邏輯,將預增加積分字段的 10 個積分扣減掉。

倉儲服務也需要提供一個 saleDelivery() 接口的 Cancel 邏輯,將銷售出庫單的狀態修改為“CANCELED”設置為已取消。

然后這個時候,訂單服務的 TCC 分布式事務框架只要感知到了任何一個服務的 Try 邏輯失敗了,就會跟各個服務內的 TCC 分布式事務框架進行通信,然后調用各個服務的 Cancel 邏輯。

大家看看下面的圖,直觀的感受一下:

詳解Java TCC分布式事務實現原理

總結與思考

好了,兄弟們,聊到這兒,基本上大家應該都知道 TCC 分布式事務具體是怎么回事了!

總結一下,你要玩兒 TCC 分布式事務的話:首先需要選擇某種 TCC 分布式事務框架,各個服務里就會有這個 TCC 分布式事務框架在運行。

然后你原本的一個接口,要改造為 3 個邏輯,Try-Confirm-Cancel:

先是服務調用鏈路依次執行 Try 邏輯。 如果都正常的話,TCC 分布式事務框架推進執行 Confirm 邏輯,完成整個事務。 如果某個服務的 Try 邏輯有問題,TCC 分布式事務框架感知到之后就會推進執行各個服務的 Cancel 邏輯,撤銷之前執行的各種操作。

這就是所謂的 TCC 分布式事務。TCC 分布式事務的核心思想,說白了,就是當遇到下面這些情況時:

某個服務的數據庫宕機了。 某個服務自己掛了。 那個服務的 Redis、Elasticsearch、MQ 等基礎設施故障了。 某些資源不足了,比如說庫存不夠這些。

先來 Try 一下,不要把業務邏輯完成,先試試看,看各個服務能不能基本正常運轉,能不能先凍結我需要的資源。

如果 Try 都 OK,也就是說,底層的數據庫、Redis、Elasticsearch、MQ 都是可以寫入數據的,并且你保留好了需要使用的一些資源(比如凍結了一部分庫存)。

接著,再執行各個服務的 Confirm 邏輯,基本上 Confirm 就可以很大概率保證一個分布式事務的完成了。

那如果 Try 階段某個服務就失敗了,比如說底層的數據庫掛了,或者 Redis 掛了,等等。

此時就自動執行各個服務的 Cancel 邏輯,把之前的 Try 邏輯都回滾,所有服務都不要執行任何設計的業務邏輯。保證大家要么一起成功,要么一起失敗。

等一等,你有沒有想到一個問題?如果有一些意外的情況發生了,比如說訂單服務突然掛了,然后再次重啟,TCC 分布式事務框架是如何保證之前沒執行完的分布式事務繼續執行的呢?

所以,TCC 事務框架都是要記錄一些分布式事務的活動日志的,可以在磁盤上的日志文件里記錄,也可以在數據庫里記錄。保存下來分布式事務運行的各個階段和狀態。

問題還沒完,萬一某個服務的 Cancel 或者 Confirm 邏輯執行一直失敗怎么辦呢?

那也很簡單,TCC 事務框架會通過活動日志記錄各個服務的狀態。舉個例子,比如發現某個服務的 Cancel 或者 Confirm 一直沒成功,會不停的重試調用它的 Cancel 或者 Confirm 邏輯,務必要它成功!

當然了,如果你的代碼沒有寫什么 Bug,有充足的測試,而且 Try 階段都基本嘗試了一下,那么其實一般 Confirm、Cancel 都是可以成功的!

最后,再給大家來一張圖,來看看給我們的業務,加上分布式事務之后的整個執行流程:

詳解Java TCC分布式事務實現原理

不少大公司里,其實都是自己研發 TCC 分布式事務框架的,專門在公司內部使用,比如我們就是這樣。

不過如果自己公司沒有研發 TCC 分布式事務框架的話,那一般就會選用開源的框架。

這里筆者給大家推薦幾個比較不錯的框架,都是咱們國內自己開源出去的:ByteTCC,TCC-transaction,Himly。

大家有興趣的可以去它們的 GitHub 地址,學習一下如何使用,以及如何跟 Spring Cloud、Dubbo 等服務框架整合使用。

只要把那些框架整合到你的系統里,很容易就可以實現上面那種奇妙的 TCC 分布式事務的效果了。

下面,我們來講講可靠消息最終一致性方案實現的分布式事務,同時聊聊在實際生產中遇到的運用該方案的高可用保障架構。

最終一致性分布式事務如何保障實際生產中 99.99% 高可用

上面咱們聊了聊 TCC 分布式事務,對于常見的微服務系統,大部分接口調用是同步的,也就是一個服務直接調用另外一個服務的接口。

這個時候,用 TCC 分布式事務方案來保證各個接口的調用,要么一起成功,要么一起回滾,是比較合適的。

但是在實際系統的開發過程中,可能服務間的調用是異步的。也就是說,一個服務發送一個消息給 MQ,即消息中間件,比如 RocketMQ、RabbitMQ、Kafka、ActiveMQ 等等。

然后,另外一個服務從 MQ 消費到一條消息后進行處理。這就成了基于 MQ 的異步調用了。

那么針對這種基于 MQ 的異步調用,如何保證各個服務間的分布式事務呢?也就是說,我希望的是基于 MQ 實現異步調用的多個服務的業務邏輯,要么一起成功,要么一起失敗。

這個時候,就要用上可靠消息最終一致性方案,來實現分布式事務。

詳解Java TCC分布式事務實現原理

大家看上圖,如果不考慮各種高并發、高可用等技術挑戰的話,單從“可靠消息”以及“最終一致性”兩個角度來考慮,這種分布式事務方案還是比較簡單的。

可靠消息最終一致性方案的核心流程①上游服務投遞消息

如果要實現可靠消息最終一致性方案,一般你可以自己寫一個可靠消息服務,實現一些業務邏輯。

首先,上游服務需要發送一條消息給可靠消息服務。這條消息說白了,你可以認為是對下游服務一個接口的調用,里面包含了對應的一些請求參數。

然后,可靠消息服務就得把這條消息存儲到自己的數據庫里去,狀態為“待確認”。

接著,上游服務就可以執行自己本地的數據庫操作,根據自己的執行結果,再次調用可靠消息服務的接口。

如果本地數據庫操作執行成功了,那么就找可靠消息服務確認那條消息。如果本地數據庫操作失敗了,那么就找可靠消息服務刪除那條消息。

此時如果是確認消息,那么可靠消息服務就把數據庫里的消息狀態更新為“已發送”,同時將消息發送給 MQ。

這里有一個很關鍵的點,就是更新數據庫里的消息狀態和投遞消息到 MQ。這倆操作,你得放在一個方法里,而且得開啟本地事務。

啥意思呢?如果數據庫里更新消息的狀態失敗了,那么就拋異常退出了,就別投遞到 MQ;如果投遞 MQ 失敗報錯了,那么就要拋異常讓本地數據庫事務回滾。這倆操作必須得一起成功,或者一起失敗。

如果上游服務是通知刪除消息,那么可靠消息服務就得刪除這條消息。

②下游服務接收消息

下游服務就一直等著從 MQ 消費消息好了,如果消費到了消息,那么就操作自己本地數據庫。

如果操作成功了,就反過來通知可靠消息服務,說自己處理成功了,然后可靠消息服務就會把消息的狀態設置為“已完成”。

③如何保證上游服務對消息的 100% 可靠投遞?

上面的核心流程大家都看完:一個很大的問題就是,如果在上述投遞消息的過程中各個環節出現了問題該怎么辦?

我們如何保證消息 100% 的可靠投遞,一定會從上游服務投遞到下游服務?別著急,下面我們來逐一分析。

如果上游服務給可靠消息服務發送待確認消息的過程出錯了,那沒關系,上游服務可以感知到調用異常的,就不用執行下面的流程了,這是沒問題的。

如果上游服務操作完本地數據庫之后,通知可靠消息服務確認消息或者刪除消息的時候,出現了問題。

比如:沒通知成功,或者沒執行成功,或者是可靠消息服務沒成功的投遞消息到 MQ。這一系列步驟出了問題怎么辦?

其實也沒關系,因為在這些情況下,那條消息在可靠消息服務的數據庫里的狀態會一直是“待確認”。

此時,我們在可靠消息服務里開發一個后臺定時運行的線程,不停的檢查各個消息的狀態。

如果一直是“待確認”狀態,就認為這個消息出了點什么問題。此時的話,就可以回調上游服務提供的一個接口,問問說,兄弟,這個消息對應的數據庫操作,你執行成功了沒啊?

如果上游服務答復說,我執行成功了,那么可靠消息服務將消息狀態修改為“已發送”,同時投遞消息到 MQ。

如果上游服務答復說,沒執行成功,那么可靠消息服務將數據庫中的消息刪除即可。

通過這套機制,就可以保證,可靠消息服務一定會嘗試完成消息到 MQ 的投遞。

④如何保證下游服務對消息的 100% 可靠接收?

那如果下游服務消費消息出了問題,沒消費到?或者是下游服務對消息的處理失敗了,怎么辦?

其實也沒關系,在可靠消息服務里開發一個后臺線程,不斷的檢查消息狀態。

如果消息狀態一直是“已發送”,始終沒有變成“已完成”,那么就說明下游服務始終沒有處理成功。

此時可靠消息服務就可以再次嘗試重新投遞消息到 MQ,讓下游服務來再次處理。

只要下游服務的接口邏輯實現冪等性,保證多次處理一個消息,不會插入重復數據即可。

⑤如何基于 RocketMQ 來實現可靠消息最終一致性方案?

在上面的通用方案設計里,完全依賴可靠消息服務的各種自檢機制來確保:

如果上游服務的數據庫操作沒成功,下游服務是不會收到任何通知。 如果上游服務的數據庫操作成功了,可靠消息服務死活都會確保將一個調用消息投遞給下游服務,而且一定會確保下游服務務必成功處理這條消息。

通過這套機制,保證了基于 MQ 的異步調用/通知的服務間的分布式事務保障。其實阿里開源的 RocketMQ,就實現了可靠消息服務的所有功能,核心思想跟上面類似。

只不過 RocketMQ 為了保證高并發、高可用、高性能,做了較為復雜的架構實現,非常的優秀。有興趣的同學,自己可以去查閱 RocketMQ 對分布式事務的支持。

可靠消息最終一致性方案的高可用保障生產實踐背景引入

上面那套方案和思想,很多同學應該都知道是怎么回事兒,我們也主要就是鋪墊一下這套理論思想。

在實際落地生產的時候,如果沒有高并發場景的,完全可以參照上面的思路自己基于某個 MQ 中間件開發一個可靠消息服務。

如果有高并發場景的,可以用 RocketMQ 的分布式事務支持上面的那套流程都可以實現。

今天給大家分享的一個核心主題,就是這套方案如何保證 99.99% 的高可用。

大家應該發現了這套方案里保障高可用性最大的一個依賴點,就是 MQ 的高可用性。

任何一種 MQ 中間件都有一整套的高可用保障機制,無論是 RabbitMQ、RocketMQ 還是 Kafka。

所以在大公司里使用可靠消息最終一致性方案的時候,我們通常對可用性的保障都是依賴于公司基礎架構團隊對 MQ 的高可用保障。

也就是說,大家應該相信兄弟團隊,99.99% 可以保障 MQ 的高可用,絕對不會因為 MQ 集群整體宕機,而導致公司業務系統的分布式事務全部無法運行。

但是現實是很殘酷的,很多中小型的公司,甚至是一些中大型公司,或多或少都遇到過 MQ 集群整體故障的場景。

MQ 一旦完全不可用,就會導致業務系統的各個服務之間無法通過 MQ 來投遞消息,導致業務流程中斷。

比如最近就有一個朋友的公司,也是做電商業務的,就遇到了 MQ 中間件在自己公司機器上部署的集群整體故障不可用,導致依賴 MQ 的分布式事務全部無法跑通,業務流程大量中斷的情況。

這種情況,就需要針對這套分布式事務方案實現一套高可用保障機制。

基于 KV 存儲的隊列支持的高可用降級方案

大家來看看下面這張圖,這是我曾經指導過朋友的一個公司針對可靠消息最終一致性方案設計的一套高可用保障降級機制。

這套機制不算太復雜,可以非常簡單有效的保證那位朋友公司的高可用保障場景,一旦 MQ 中間件出現故障,立馬自動降級為備用方案。

詳解Java TCC分布式事務實現原理

①自行封裝 MQ 客戶端組件與故障感知

首先第一點,你要做到自動感知 MQ 的故障接著自動完成降級,那么必須動手對 MQ 客戶端進行封裝,發布到公司 Nexus 私服上去。

然后公司需要支持 MQ 降級的業務服務都使用這個自己封裝的組件來發送消息到 MQ,以及從 MQ 消費消息。

在你自己封裝的 MQ 客戶端組件里,你可以根據寫入 MQ 的情況來判斷 MQ 是否故障。

比如說,如果連續 10 次重新嘗試投遞消息到 MQ 都發現異常報錯,網絡無法聯通等問題,說明 MQ 故障,此時就可以自動感知以及自動觸發降級開關。

②基于 KV 存儲中隊列的降級方案

如果 MQ 掛掉之后,要是希望繼續投遞消息,那么就必須得找一個 MQ 的替代品。

舉個例子,比如我那位朋友的公司是沒有高并發場景的,消息的量很少,只不過可用性要求高。此時就可以使用類似 Redis 的 KV 存儲中的隊列來進行替代。

由于 Redis 本身就支持隊列的功能,還有類似隊列的各種數據結構,所以你可以將消息寫入 KV 存儲格式的隊列數據結構中去。

PS:關于 Redis 的數據存儲格式、支持的數據結構等基礎知識,請大家自行查閱了,網上一大堆。

但是,這里有幾個大坑,一定要注意一下:

第一個,任何 KV 存儲的集合類數據結構,建議不要往里面寫入數據量過大,否則會導致大 Value 的情況發生,引發嚴重的后果。

因此絕不能在 Redis 里搞一個 Key,就拼命往這個數據結構中一直寫入消息,這是肯定不行的。

第二個,絕對不能往少數 Key 對應的數據結構中持續寫入數據,那樣會導致熱 Key 的產生,也就是某幾個 Key 特別熱。

大家要知道,一般 KV 集群,都是根據 Key 來 Hash 分配到各個機器上的,你要是老寫少數幾個 Key,會導致 KV 集群中的某臺機器訪問過高,負載過大。

基于以上考慮,下面是筆者當時設計的方案:

根據它們每天的消息量,在 KV 存儲中固定劃分上百個隊列,有上百個 Key 對應。這樣保證每個 Key 對應的數據結構中不會寫入過多的消息,而且不會頻繁的寫少數幾個 Key。一旦發生了 MQ 故障,可靠消息服務可以對每個消息通過 Hash 算法,均勻的寫入固定好的上百個 Key 對應的 KV 存儲的隊列中。

同時需要通過 ZK 觸發一個降級開關,整個系統在 MQ 這塊的讀和寫全部立馬降級。

③下游服務消費 MQ 的降級感知

下游服務消費 MQ 也是通過自行封裝的組件來做的,此時那個組件如果從 ZK 感知到降級開關打開了,首先會判斷自己是否還能繼續從 MQ 消費到數據?

如果不能了,就開啟多個線程,并發的從 KV 存儲的各個預設好的上百個隊列中不斷的獲取數據。

每次獲取到一條數據,就交給下游服務的業務邏輯來執行。通過這套機制,就實現了 MQ 故障時候的自動故障感知,以及自動降級。如果系統的負載和并發不是很高的話,用這套方案大致是沒問題的。

因為在生產落地的過程中,包括大量的容災演練以及生產實際故障發生時的表現來看,都是可以有效的保證 MQ 故障時,業務流程繼續自動運行的。

④故障的自動恢復

如果降級開關打開之后,自行封裝的組件需要開啟一個線程,每隔一段時間嘗試給 MQ 投遞一個消息看看是否恢復了。

如果 MQ 已經恢復可以正常投遞消息了,此時就可以通過 ZK 關閉降級開關,然后可靠消息服務繼續投遞消息到 MQ,下游服務在確認 KV 存儲的各個隊列中已經沒有數據之后,就可以重新切換為從 MQ 消費消息。

⑤更多的業務細節

上面說的那套方案是一套通用的降級方案,但是具體的落地是要結合各個公司不同的業務細節來決定的,很多細節多沒法在文章里體現。

比如說你們要不要保證消息的順序性?是不是涉及到需要根據業務動態,生成大量的 Key?等等。

此外,這套方案實現起來還是有一定的成本的,所以建議大家盡可能還是 Push 公司的基礎架構團隊,保證 MQ 的 99.99% 可用性,不要宕機。

其次就是根據大家公司實際對高可用的需求來決定,如果感覺 MQ 偶爾宕機也沒事,可以容忍的話,那么也不用實現這種降級方案。

但是如果公司領導認為 MQ 中間件宕機后,一定要保證業務系統流程繼續運行,那么還是要考慮一些高可用的降級方案,比如本文提到的這種。

最后再說一句,真要是一些公司涉及到每秒幾萬幾十萬的高并發請求,那么對 MQ 的降級方案會設計的更加的復雜,那就遠遠不是這么簡單可以做到的。

以上就是詳解Java TCC分布式事務實現原理的詳細內容,更多關于Java TCC分布式事務的資料請關注好吧啦網其它相關文章!

標簽: Java
相關文章:
主站蜘蛛池模板: 日韩一区二区三区在线 | 国产日韩一区二区 | 国产精产国品一二三产区视频 | 欧美日韩电影一区二区 | 不卡久久 | 99精品欧美一区二区三区综合在线 | 国产中文一区 | 少妇一区二区三区 | 久草久 | 美女毛片免费看 | 日韩国产免费观看 | 国产成人福利在线观看 | 伊人久操 | va在线 | 成人免费视频在线观看 | 国内精品一区二区 | 国产精品视频免费观看 | 久久久精品网站 | 麻豆一区 | a级毛片免费高清视频 | 国偷自产av一区二区三区 | 欧美成人一区二区三区片免费 | 欧美激情综合五月色丁香小说 | 一级做a爰片毛片 | 国产成人片 | 69性欧美高清影院 | 亚洲午夜精品在线观看 | 亚洲精品不卡 | 国产精品18久久久久久久久 | 91精品久久久久久久久 | 国产日韩欧美视频 | 日韩欧美~中文字幕 | 日韩免费高清视频 | 欧美精品欧美激情 | 成年免费观看视频 | 嫩草影院懂你的 | 久久久久久久一区 | 中文字幕在线第一页 | 欧美日韩一区二区电影 | 伊人一区二区三区 | 欧美精品在线免费观看 | 伊人激情网 | 亚洲天天干 | 九草av | 亚洲欧美日韩一区二区 | av在线免费网址 | 成年人av网站 | 最新国产在线 | 久久99国产精品久久99大师 | 精品日韩一区二区 | 操视频网站 | 久久人人爽爽爽人久久久 | 亚洲一区二区中文字幕在线观看 | 在线观看国产视频 | 亚洲 中文 欧美 日韩 在线观看 | 91日韩欧美| 一级毛片观看 | 精品在线一区二区 | 啊v视频 | 亚洲电影在线观看 | 亚洲成人高清 | 在线观看国产小视频 | 91av在线视频播放 | 中文字幕一区二区三区乱码图片 | 一区小视频 | 天堂va| 高清国产一区二区三区四区五区 | 欧美久久免费 | 亚洲精品乱码久久久久久不卡 | 亚洲国产精品成人无久久精品 | 天天操,夜夜操 | 天天爽夜夜爽夜夜爽精品视频 | 免费国产一区二区 | 天天爽夜夜爽 | 久久欧美高清二区三区 | 精品国产一区二区三区性色av | 天天操夜夜操 | www.99热这里只有精品 | 国产一区二区视频在线播放 | 九九热免费精品视频 | www国产亚洲精品久久网站 | 久久久久久久久99精品 | 玖玖在线精品 | 日韩欧美在线中文字幕 | 精品九九九 | 免费高潮视频95在线观看网站 | 成人免费淫片视频观 | av中文字幕在线 | 狠狠狠 | 成人免费视频7777777 | 99久久免费精品国产男女性高好 | 亚洲啪啪网站 | 影音先锋中文字幕在线 | 欧美视频三区 | 91国内精品久久 | 91av在线不卡| 日本一区二区视频 | 国产福利91精品一区二区 | 欧美大片黄 | 小泽玛丽娅 | 成人av免费| 国产精品久久久久久久久久久久久久 | 国产目拍亚洲精品99久久精品 | 国产精品永久免费视频 | 欧美日韩一区二区电影 | 日本欧美在线 | 亚洲欧美一区二区三区在线 | 中文精品久久久 | 国产精品免费av | 91视频网 | 久久久久久久久一区二区三区 | 天堂中文字幕 | h色视频在线观看 | 日日夜夜一区二区 | 成人免费在线观看 | 国产成人综合av | 日韩在线精品强乱中文字幕 | 一区二区免费在线播放 | 狠狠综合久久av一区二区小说 | 欧美亚洲二区 | 欧美黄色精品 | 日韩欧美二区 | 一色视频 | 亚洲欧美第一页 | 偷偷干夜夜拍 | 国产精品一区二区久久久久 | 一区二区免费播放 | 中文字幕视频二区 | 日韩一二| 天堂中文资源在线 | 国产成人福利 | 精品乱码久久久 | 91社区在线观看高清 | zzzzyyyy精品国产 | 国产精品国色综合久久 | 一级欧美一级日韩 | 免费观看黄色一级大片 | 亚洲一区二区三区四区在线观看 | 日韩欧美一级精品久久 | 久久99精品国产.久久久久 | 国产精品无码永久免费888 | 日韩看片| 欧美日韩精品 | 亚洲激情网站 | 国产精品一区二区在线观看 | 七七婷婷婷婷精品国产 | 涩涩综合| 亚洲精品a在线观看 | 国产一区二区视频在线观看 | 新91在线视频| 久久成人免费 | 日韩av在线电影 | av网站在线免费观看 | 亚洲最新中文字幕 | a国产在线| 欧美国产在线一区 | 中文字幕高清视频 | 国产第一区在线观看 | 久久精品欧美一区二区三区麻豆 | 久久久久久久影院 | 在线观看中文字幕 | 天天舔天天爽 | 可以在线观看的黄色 | 久久精品一区二区三区四区 | 黄色一级大片在线免费看产 | 午夜激情视频在线观看 | 国产色99精品9i | 高清精品一区二区 | 亚洲精品久久久久一区二区三区 | 亚洲午夜性视频 | 午夜精品久久久久久99热软件 | 日日草夜夜草 | 91精品久久久久久久久久 | 在线看国产 | 中文字幕一区二区三区四区 | 欧美一级片在线观看 | 久久久久国产一区二区三区 | 久久综合精品视频 | 国产精品视频入口 | 亚洲综合一区二区三区 | 91成人在线视频 | 亚洲一区二区三区四区在线观看 | 日本在线免费看 | 免费观看日韩av | 韩国av一区二区 | 国产欧美日韩一区二区三区 | 精品一区久久 | 亚洲另类小视频 | 久久蜜桃精品一区二区三区综合网 | 欧美最猛性xxxxx亚洲精品 | 国产精品九九九 | 国产一区精品电影 | 天堂久久一区 | av亚洲在线 | 欧美一区永久视频免费观看 | 精品免费| 国产一区二区在线看 | 日韩精品亚洲专区在线观看 | 成人免费视频在线观看 | 日日夜夜精品免费视频 | 天堂资源最新在线 | 视频久久精品 | 国产精品一区二区久久 | 日本aaaa| 欧美日在线 | 国产欧美高清在线观看 | 亚洲精选免费视频 | 亚洲一二三区在线观看 | 国产区视频在线 | 中文字幕一二三区 | 欧美日韩成人在线观看 | 成人午夜视频在线观看 | 亚洲一区视频在线 | a在线观看免费视频 | 日韩一区二区福利视频 | 中文字幕电影在线 | 久久精品一区二区三区四区 | 欧美性影院 | 日韩欧美二区 | 亚洲欧美另类在线观看 | 亚洲成人网络 | 欧洲亚洲视频 | 国产农村妇女精品一二区 | 日韩电影一区二区三区 | 这里只有精品在线视频观看 | 亚洲国产精品99久久久久久久久 | 91蜜桃视频 | 亚洲国产精品一区二区三区 | 成人黄色短视频在线观看 | 一级片免费视频 | 亚洲高清在线观看 | 美女视频一区 | 亚洲欧洲免费视频 | 91在线免费观看 | 国产女人爽到高潮免费视频 | 97碰碰碰免费公开在线视频 | 久久av网| 中文字幕一区二区三区乱码图片 | 免费啪啪网站 | 亚洲啪啪网站 | 在线观看中文字幕亚洲 | 男女视频免费看 | 久久综合一区二区三区 | 久久久亚洲 | 日韩中文字幕欧美 | 国产精品一区一区三区 | 一区二区三区精品视频免费看 | 日本不卡一二三 | 懂色一区二区三区免费观看 | 久久视频一区 | 热久久这里只有精品 | 亚洲精品视频在线观看网站 | 亚洲狠狠久久综合一区77777 | 国产欧美一区二区精品忘忧草 | 9191视频 | 成年免费观看视频 | 免费看a | 国产一级黄色大片 | 成人精品视频在线 | aaa级片| 国产精品久久久久久福利一牛影视 | 久久99精品国产自在现线 | 久久久精| 日韩欧美国产一区二区三区 | 久久久精品影院 | 在线国产一区二区 | av在线网址观看 | 成人欧美日韩一区二区三区 | 国产精品一区av | 欧美一区二区三区电影 | 亚洲一区二区三区 | 精品1区2区 | 国产美女在线观看 | 国产日产精品一区二区三区四区 | 欧美日韩高清一区 | 国产人免费人成免费视频 | 精品久久一二三区 | 国产精品人人做人人爽 | 久久久久女人精品毛片九一韩国 | 91免费国产 | 色噜噜狠狠狠综合曰曰曰88av | 99热这里有精品 | 国产日本韩国在线 | 中文字幕日韩欧美 | 91精品国产777在线观看 | 国产免费av在线 | 亚洲日韩中文字幕一区 | 日韩大尺度在线观看 | 中文字幕在线观看的电影 | 久久精品这里热有精品 | 精品一二三区 | 日韩欧美国产精品综合嫩v 高清av网站 | 毛片一区二区三区 | 久久久国产精品 | 久久久精品网站 | 亚洲一区二区三区在线播放 | 免费av在线 | 亚洲精品视频一区 | 久久亚洲天堂 | 精品国产乱码久久久久久久 | 国家aaa的一级看片 h片在线看 | 一区二区三区在线 | 欧 | 天堂欧美城网站网址 | 日韩毛片免费看 | av在线大全 | 不卡视频一区二区 | 欧美日韩中文 | 久久91| 久久精品一区 | 天天爱爱网 | 精品九九久久 | 欧美一级免费 | 国产精品国产三级国产aⅴ9色 | 美女视频一区二区三区 | 国产亚洲精品久久久456 | 一级视频黄色 | 一级毛片,一级毛片 | 国产精品亚洲天堂 | 亚洲cb精品一区二区三区 | 日韩欧美国产电影 | 亚洲日韩中文字幕一区 | 国产成人中文字幕 | 国产九九精品 | 欧美日韩亚洲国产 | 亚洲精品一区二区三区蜜桃下载 | 亚洲 精品 综合 精品 自拍 | www.一区二区| 毛片久久久| 一级黄色片看看 | 欧美综合精品 | 嫩草影院在线观看91麻豆 | 亚洲成熟少妇视频在线观看 | 91精品国产综合久久福利 | 在线成人av | 日韩精品久久久久久 | 国产精品一区二区无线 | 精品国产一级毛片 | 狠狠操综合网 | 久久中文字幕视频 | 亚洲精品电影网在线观看 | 成人免费在线视频播放 | 久久久久无码国产精品一区 | 黄色毛片在线观看 | 久久99精品久久久久久按摩秒播 | 欧美在线观看免费观看视频 | 中文字幕亚洲一区 | 欧美精品一区二区三区中文字幕 | 黄色片免费看. | 日韩小视频网站 | 午夜日韩 | 极品久久 | 欧美性网 | 一级毛片在线播放 | 国产伊人久 | 国产精品久久av | 欧美三级影院 | 久久午夜综合久久 | 午夜精品网站 | 在线免费看黄视频 | 成人一区二区三区在线观看 | 黄色av网站在线免费观看 | www.99精品 | 国产精品毛片一区二区在线看 | 中文字幕在线看第二 | 日本理论片好看理论片 | 欧美成人黑人xx视频免费观看 | 97久久久| 91精品国产综合久久久亚洲 | 一二三区不卡视频 | 另类天堂av | 日韩视频在线观看不卡 | 中文字幕一区二区三区四区不卡 | 一区二区三区四区 | 亚洲精品在线免费看 | 国产三级精品在线 | 日韩一区二区三区在线观看 | 大乳videos巨大吃奶 | 欧美一级欧美三级在线观看 | 久久久久久一区二区 | 国产一级视频 | 久久99精品久久久久婷婷暖91 | 日韩视频一区二区三区 | 欧美精品影院 | 岛国a视频| 国产综合亚洲精品一区二 | 国产一区二区自拍 | 国产精品片aa在线观看 | 操操操日日日 | 成人一区二区在线 | 在线中文字幕观看 | 91国内精品| 视频一区中文字幕 | 天天操夜夜干 | 免费中文字幕日韩欧美 | 日本免费在线 | 日韩1区| 国产一区二区在线观看视频 | 日韩精品中文字幕一区二区三区 | 国产日韩免费 | 国产小视频网站 | 成人深夜福利视频 | 国产情侣自拍啪啪 | 日本一区二区三区视频免费看 | 国产免费一区二区三区 | 91高清视频 | 亚洲免费网站在线观看 | 亚洲精品乱码久久久久久 | 亚洲+变态+欧美+另类+精品 | 欧美视频在线免费 | 久久久夜 | 日本妇人成熟免费视频 | 精品久 | 香蕉大人久久国产成人av | 精品国产髙清在线看国产毛片 | 欧美一级特黄aaaaaa大片在线观看 | 国产精品1区2区在线观看 | 日韩免费一区二区 | 黄网站色大毛片 | 嫩草影院懂你的 | 中字一区 | 91欧美激情一区二区三区成人 | 国产一区在线观看视频 | 一区在线不卡 | 日韩精品一区二区三区在线 | 91成人区 | 一级免费视频 | 精品久久久久久久 | 精品久久久久久亚洲精品 | 免费av中国 | 成人免费在线看片 | 日本一区二区三区免费观看 | 天堂√在线观看一区二区 | 亚洲午夜精品一区二区三区 | 色999精品| 欧洲成人在线观看 | 在线免费毛片 | 中文字幕一区二区三区乱码图片 | 欧美在线视频一区二区 | 欧美精品一区二区三区在线播放 | 国产精品久久久久久亚洲调教 | 国产精品一区二区免费 | 精品欧美日韩 | 亚洲一区国产视频 | 国产日韩欧美视频 | 男女小网站 | 中文字幕一区二区在线观看 | 9se成人免费网站 | 精品无码久久久久久国产 | 中文字幕在线一区二区三区 | 国产精品国色综合久久 | 香蕉视频在线看 | 久久亚洲国产精品 | 国产精品国产精品国产专区不卡 | 永久av| 亚洲视频一区在线 | 毛片网站大全 | 午夜影院免费版 | 日韩 国产 在线 | 毛片免费观看 | 一级黄色录像毛片 | 久久精品二区 | 国产午夜久久久久 | 韩日一区| 国产精品福利视频 | 久久视频免费 | 亚洲欧美综合精品久久成人 | 美女一区二区三区在线观看 | 狠狠艹 | 热久久免费视频 | 四虎影院网站 | 日韩在线观看一区二区 | 亚洲黄网在线观看 | 精品日韩一区 | 国产va | 青草青草久热精品视频在线观看 | 亚洲精品一区二区三区中文字幕 | 免费av电影在线观看 | 日韩久久网 | 欧美性吧 | 中文字幕一区二区三区乱码图片 | 后人极品翘臀美女在线播放 | 国产成人精品亚洲日本在线观看 | 女人久久久久久久 | 成人在线视频播放 | 国产一区| 精品国产污网站污在线观看15 | 精品久久久久久久久久久院品网 | 成人精品| 日日干夜夜操 | 国产精品久久久久影院色老大 | 欧美成人精品一区二区三区 | 综合久久久久久久 | 久久91 | 天天操网| 亚洲欧美日韩精品 | 免费久久久久 | 亚洲精品www| 久久精品福利 | 2020天天操| 国产综合久久久 | 久热中文| 成人在线观看免费视频 | 九九热有精品 | 亚洲电影免费 | 天天操天天碰 | 色综合天天综合网国产成人网 | 日韩欧美国产一区二区 | 久久99精品久久久久久琪琪 | 亚洲精品自拍视频 | 国产不卡一区 | 成人午夜电影在线观看 | 精品一区视频 | 亚洲夜幕久久日韩精品一区 | 国内精品久久精品 | 国产私拍视频 | 中国大陆高清aⅴ毛片 | 欧美精品乱码久久久久久按摩 | 欧美日韩精品一区 | 国产精品久久av | 自拍偷拍欧美 | 国产999精品久久久影片官网 | 在线观看国产视频 | 播放毛片| 精品国产成人 | 欧洲视频一区二区三区 | 九九精品久久久 | 久草成人网 | 日韩欧美在线观看视频 | 亚洲视频中文字幕 | 91精品在线观看入口 | 91高清在线 | 欧美亚洲一 | 亚洲成人久久久 | 日韩国产在线播放 | 日本一区二区三区免费观看 | 国产精品1区2区 | 国产高清在线 | 日韩在线短视频 | 国产一区二区视频在线观看 | 玖玖爱视频在线 | 日本女人高潮视频 | 久久精品国产视频 | 伊人久久国产 | 亚洲视频一区 | 蜜月aⅴ免费一区二区三区 99re在线视频 | 亚洲综合色自拍一区 | 国产精品亚洲一区二区三区在线 | 在线中文字幕av | 欧美 日韩 国产 一区 | 女朋友的闺蜜3韩国三级 | 四虎成人在线播放 | 亚洲国产精品久久久久久久 | 国产精品久久久久久久久久大牛 | 97在线视频免费 | 天天天天天天天操 | 亚洲欧美一区二区精品中文字幕 | 欧美综合久久久 | 国产一级大片 | 亚洲天堂成人在线 | 国产91色 | 日韩成人在线播放 | 日日撸| 在线天堂视频 | 亚洲精品国产综合 | 偷拍电影一区二区三区 | 免费a视频 | 99精品热| 成人亚洲一区 | 97热在线| 精品国产一区二区三区久久影院 | 精品国产影院 | 91夜夜蜜桃臀一区二区三区 | 毛片网站大全 | 欧美精品免费在线 | 97伦理在线 | 五月婷婷天 | 日韩视频在线免费观看 | 欧美精品一区二区三区在线 | 伊人激情综合网 | 国产成人啪精品午夜在线观看 | 天天爽夜夜爽夜夜爽精品视频 | 天天艹逼 | 久二影院 | 中文字幕在线不卡 | 精品一级 | 国产婷婷| 美女国产精品 | 日韩欧美视频 | 中文字幕在线免费 | 激情久久久 | 五月天电影网 | 日韩素人在线 | 91亚洲国产成人久久精品网站 | 国产精品第一 | 久在草视频 | 日韩国伦理久久一区 | avmans最新导航地址 | 在线免费观看毛片 | 亚洲成人免费在线 | 精品欧美一区二区三区久久久 | 精品国产乱码久久久久久密桃99 | 国产精品久久久久久久久污网站 | 亚洲美女在线视频 | 久久伊人精品网 | 久久99深爱久久99精品 | 久久久久av | 红色av社区 | 久草在线高清 | 日韩欧美精品 | 91福利影院在线观看 | 99爱在线观看 | 国产精品亚洲一区二区三区在线 | 国产成人一区二区 | 在线日韩中文字幕 | 99热国产精品|