国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

服務器之家:專注于服務器技術及軟件下載分享
分類導航

Mysql|Sql Server|Oracle|Redis|MongoDB|PostgreSQL|Sqlite|DB2|mariadb|Access|數據庫技術|

服務器之家 - 數據庫 - Redis - 快看我在Redis分布式鎖上栽的八個跟頭

快看我在Redis分布式鎖上栽的八個跟頭

2022-02-28 23:06蘇三說技術因為熱愛所以堅持 Redis

今天我們就一起聊聊Redis分布式鎖的一些坑,給有需要的朋友一個參考。

在分布式系統中,由于redis分布式鎖相對于更簡單和高效,成為了分布式鎖的首先,被我們用到了很多實際業務場景當中。

但不是說用了redis分布式鎖,就可以高枕無憂了,如果沒有用好或者用對,也會引來一些意想不到的問題。

今天我們就一起聊聊redis分布式鎖的一些坑,給有需要的朋友一個參考。

快看我在Redis分布式鎖上栽的八個跟頭

一、非原子操作

使用redis的分布式鎖,我們首先想到的可能是setNx命令。

if (jedis.setnx(lockKey, val) == 1) { jedis.expire(lockKey, timeout);
}

容易,三下五除二,我們就可以把代碼寫好。

這段代碼確實可以加鎖成功,但你有沒有發現什么問題?

加鎖操作和后面的設置超時時間是分開的,并非原子操作。

假如加鎖成功,但是設置超時時間失敗了,該lockKey就變成永不失效。假如在高并發場景中,有大量的lockKey加鎖成功了,但不會失效,有可能直接導致redis內存空間不足。

那么,有沒有保證原子性的加鎖命令呢?

答案是:有,請看下面。

二、忘了釋放鎖

上面說到使用setNx命令加鎖操作和設置超時時間是分開的,并非原子操作。

而在redis中還有set命令,該命令可以指定多個參數。

String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime); if ("OK".equals(result)) { return true;
} return false;

其中:

  • lockKey:鎖的標識
  • requestId:請求id
  • NX:只在鍵不存在時,才對鍵進行設置操作。
  • PX:設置鍵的過期時間為 millisecond 毫秒。
  • expireTime:過期時間

set命令是原子操作,加鎖和設置超時時間,一個命令就能輕松搞定。

nice!

使用set命令加鎖,表面上看起來沒有問題。但如果仔細想想,加鎖之后,每次都要達到了超時時間才釋放鎖,會不會有點不合理?加鎖后,如果不及時釋放鎖,會有很多問題。

分布式鎖更合理的用法是:

  • 手動加鎖
  • 業務操作
  • 手動釋放鎖

如果手動釋放鎖失敗了,則達到超時時間,redis會自動釋放鎖。

大致流程圖如下:

快看我在Redis分布式鎖上栽的八個跟頭

那么問題來了,如何釋放鎖呢?

偽代碼如下:

try{ String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime); if ("OK".equals(result)) { return true;
  } return false;
} finally { unlock(lockKey);
}  

需要捕獲業務代碼的異常,然后在finally中釋放鎖。換句話說就是:無論代碼執行成功或失敗了,都需要釋放鎖。

此時,有些朋友可能會問:假如剛好在釋放鎖的時候,系統被重啟了,或者網絡斷線了,或者機房斷點了,不也會導致釋放鎖失敗?

這是一個好問題,因為這種小概率問題確實存在。

但還記得前面我們給鎖設置過超時時間嗎?即使出現異常情況造成釋放鎖失敗,但到了我們設定的超時時間,鎖還是會被redis自動釋放。

但只在finally中釋放鎖,就夠了嗎?

三、釋放了別人的鎖

做人要厚道,先回答上面的問題:只在finally中釋放鎖,當然是不夠的,因為釋放鎖的姿勢,還是不對。

哪里不對?

答:在多線程場景中,可能會出現釋放了別人的鎖的情況。

有些朋友可能會反駁:假設在多線程場景中,線程A獲取到了鎖,但如果線程A沒有釋放鎖,此時,線程B是獲取不到鎖的,何來釋放了別人鎖之說?

答:假如線程A和線程B,都使用lockKey加鎖。線程A加鎖成功了,但是由于業務功能耗時時間很長,超過了設置的超時時間。這時候,redis會自動釋放lockKey鎖。此時,線程B就能給lockKey加鎖成功了,接下來執行它的業務操作。恰好這個時候,線程A執行完了業務功能,接下來,在finally方法中釋放了鎖lockKey。這不就出問題了,線程B的鎖,被線程A釋放了。

我想這個時候,線程B肯定哭暈在廁所里,并且嘴里還振振有詞。

那么,如何解決這個問題呢?

不知道你們注意到沒?在使用set命令加鎖時,除了使用lockKey鎖標識,還多設置了一個參數:requestId,為什么要需要記錄requestId呢?

答:requestId是在釋放鎖的時候用的。

偽代碼如下:

if (jedis.get(lockKey).equals(requestId)) { jedis.del(lockKey); return true;
} return false;

在釋放鎖的時候,先獲取到該鎖的值(之前設置值就是requestId),然后判斷跟之前設置的值是否相同,如果相同才允許刪除鎖,返回成功。如果不同,則直接返回失敗。

換句話說就是:自己只能釋放自己加的鎖,不允許釋放別人加的鎖。

這里為什么要用requestId,用userId不行嗎?

答:如果用userId的話,對于請求來說并不唯一,多個不同的請求,可能使用同一個userId。而requestId是全局唯一的,不存在加鎖和釋放鎖亂掉的情況。

此外,使用lua腳本,也能解決釋放了別人的鎖的問題:

if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end 

lua腳本能保證查詢鎖是否存在和刪除鎖是原子操作,用它來釋放鎖效果更好一些。

說到lua腳本,其實加鎖操作也建議使用lua腳本:

if (redis.call('exists', KEYS[1]) == 0) then redis.call('hset', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) redis.call('hincrby', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end; return redis.call('pttl', KEYS[1]);

這是redisson框架的加鎖代碼,寫的不錯,大家可以借鑒一下。

有趣,下面還有哪些好玩的東西?

四、大量失敗請求

上面的加鎖方法看起來好像沒有問題,但如果你仔細想想,如果有1萬的請求同時去競爭那把鎖,可能只有一個請求是成功的,其余的9999個請求都會失敗。

在秒殺場景下,會有什么問題?

答:每1萬個請求,有1個成功。再1萬個請求,有1個成功。如此下去,直到庫存不足。這就變成均勻分布的秒殺了,跟我們想象中的不一樣。

如何解決這個問題呢?

此外,還有一種場景:

比如,有兩個線程同時上傳文件到sftp,上傳文件前先要創建目錄。假設兩個線程需要創建的目錄名都是當天的日期,比如:20210920,如果不做任何控制,直接并發的創建目錄,第二個線程必然會失敗。

這時候有些朋友可能會說:這還不容易,加一個redis分布式鎖就能解決問題了,此外再判斷一下,如果目錄已經存在就不創建,只有目錄不存在才需要創建。

偽代碼如下:

try { String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime); if ("OK".equals(result)) { if(!exists(path)) { mkdir(path);
    } return true;
  }
} finally{ unlock(lockKey,requestId);
} return false;

一切看似美好,但經不起仔細推敲。

來自靈魂的一問:第二個請求如果加鎖失敗了,接下來,是返回失敗,還是返回成功呢?

主要流程圖如下:

快看我在Redis分布式鎖上栽的八個跟頭

顯然第二個請求,肯定是不能返回失敗的,如果返回失敗了,這個問題還是沒有被解決。 如果文件還沒有上傳成功,直接返回成功會有更大的問題。 頭疼,到底該如何解決呢?

答:使用自旋鎖。

try { Long start = System.currentTimeMillis(); while(true) { String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime); if ("OK".equals(result)) { if(!exists(path)) { mkdir(path);
        } return true;
     } long time = System.currentTimeMillis() - start; if (time>=timeout) { return false;
      } try { Thread.sleep(50);
      } catch (InterruptedException e) { e.printStackTrace();
      }
  }
} finally{ unlock(lockKey,requestId);
} return false;

在規定的時間,比如500毫秒內,自旋不斷嘗試加鎖(說白了,就是在死循環中,不斷嘗試加鎖),如果成功則直接返回。如果失敗,則休眠50毫秒,再發起新一輪的嘗試。如果到了超時時間,還未加鎖成功,則直接返回失敗。

好吧,學到一招了,還有嗎?

五、鎖重入問題

我們都知道redis分布式鎖是互斥的。假如我們對某個key加鎖了,如果該key對應的鎖還沒失效,再用相同key去加鎖,大概率會失敗。

沒錯,大部分場景是沒問題的。

為什么說是大部分場景呢?

因為還有這樣的場景:

假設在某個請求中,需要獲取一顆滿足條件的菜單樹或者分類樹。我們以菜單為例,這就需要在接口中從根節點開始,遞歸遍歷出所有滿足條件的子節點,然后組裝成一顆菜單樹。

需要注意的是菜單不是一成不變的,在后臺系統中運營同學可以動態添加、修改和刪除菜單。為了保證在并發的情況下,每次都可能獲取最新的數據,這里可以加redis分布式鎖。

加redis分布式鎖的思路是對的。但接下來問題來了,在遞歸方法中遞歸遍歷多次,每次都是加的同一把鎖。遞歸第一層當然是可以加鎖成功的,但遞歸第二層、第三層...第N層,不就會加鎖失敗了?

遞歸方法中加鎖的偽代碼如下:

private int expireTime = 1000; public void fun(int level,String lockKey,String requestId){ try{ String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime); if ("OK".equals(result)) { if(level<=10){ this.fun(++level,lockKey,requestId);
        } else { return;
        }
     } return;
  } finally { unlock(lockKey,requestId);
  }
}

如果你直接這么用,看起來好像沒有問題。但最終執行程序之后發現,等待你的結果只有一個:出現異常。

因為從根節點開始,第一層遞歸加鎖成功,還沒釋放鎖,就直接進入第二層遞歸。因為鎖名為lockKey,并且值為requestId的鎖已經存在,所以第二層遞歸大概率會加鎖失敗,然后返回到第一層。第一層接下來正常釋放鎖,然后整個遞歸方法直接返回了。

這下子,大家知道出現什么問題了吧?

沒錯,遞歸方法其實只執行了第一層遞歸就返回了,其他層遞歸由于加鎖失敗,根本沒法執行。

那么這個問題該如何解決呢?

答:使用可重入鎖。

我們以redisson框架為例,它的內部實現了可重入鎖的功能。

古時候有句話說得好:為人不識陳近南,便稱英雄也枉然。

我說:分布式鎖不識redisson,便稱好鎖也枉然。哈哈哈,只是自娛自樂一下。

由此可見,redisson在redis分布式鎖中的江湖地位很高。

偽代碼如下:

private int expireTime = 1000; public void run(String lockKey) { RLock lock = redisson.getLock(lockKey); this.fun(lock,1);
} public void fun(RLock lock,int level){ try{ lock.lock(5, TimeUnit.SECONDS); if(level<=10){ this.fun(lock,++level);
      } else { return;
      }
  } finally { lock.unlock();
  }
}

上面的代碼也許并不完美,這里只是給了一個大致的思路,如果大家有這方面需求的話,以上代碼僅供參考。

接下來,聊聊redisson可重入鎖的實現原理。

加鎖主要是通過以下腳本實現的:

if (redis.call('exists', KEYS[1]) == 0) then redis.call('hset', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end; if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then redis.call('hincrby', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end; return redis.call('pttl', KEYS[1]);

其中:

  • KEYS[1]:鎖名
  • ARGV[1]:過期時間
  • ARGV[2]:uuid + ":" + threadId,可認為是requestId

先判斷如果鎖名不存在,則加鎖。

接下來,判斷如果鎖名和requestId值都存在,則使用hincrby命令給該鎖名和requestId值計數,每次都加1。注意一下,這里就是重入鎖的關鍵,鎖重入一次值就加1。

如果鎖名存在,但值不是requestId,則返回過期時間。

釋放鎖主要是通過以下腳本實現的:

if (redis.call('hexists', KEYS[1], ARGV[3]) == 0) then return nil end local counter = redis.call('hincrby', KEYS[1], ARGV[3], -1); if (counter > 0) then redis.call('pexpire', KEYS[1], ARGV[2]); return 0; else redis.call('del', KEYS[1]); redis.call('publish', KEYS[2], ARGV[1]); return 1; end; return nil 
  • 先判斷如果鎖名和requestId值不存在,則直接返回。
  • 如果鎖名和requestId值存在,則重入鎖減1。
  • 如果減1后,重入鎖的value值還大于0,說明還有引用,則重試設置過期時間。
  • 如果減1后,重入鎖的value值還等于0,則可以刪除鎖,然后發消息通知等待線程搶鎖。

再次強調一下,如果你們系統可以容忍數據暫時不一致,有些場景不加鎖也行,我在這里只是舉個例子,本節內容并不適用于所有場景。

六、鎖競爭問題

如果有大量需要寫入數據的業務場景,使用普通的redis分布式鎖是沒有問題的。

但如果有些業務場景,寫入的操作比較少,反而有大量讀取的操作。這樣直接使用普通的redis分布式鎖,會不會有點浪費性能?

我們都知道,鎖的粒度越粗,多個線程搶鎖時競爭就越激烈,造成多個線程鎖等待的時間也就越長,性能也就越差。

所以,提升redis分布式鎖性能的第一步,就是要把鎖的粒度變細。

1、讀寫鎖

眾所周知,加鎖的目的是為了保證,在并發環境中讀寫數據的安全性,即不會出現數據錯誤或者不一致的情況。

但在絕大多數實際業務場景中,一般是讀數據的頻率遠遠大于寫數據。而線程間的并發讀操作是并不涉及并發安全問題,我們沒有必要給讀操作加互斥鎖,只要保證讀寫、寫寫并發操作上鎖是互斥的就行,這樣可以提升系統的性能。

我們以redisson框架為例,它內部已經實現了讀寫鎖的功能。

讀鎖的偽代碼如下:

RReadWriteLock readWriteLock = redisson.getReadWriteLock("readWriteLock"); RLock rLock = readWriteLock.readLock(); try { rLock.lock(); //業務操作 } catch (Exception e) { log.error(e);
} finally { rLock.unlock();
}

寫鎖的偽代碼如下:

RReadWriteLock readWriteLock = redisson.getReadWriteLock("readWriteLock"); RLock rLock = readWriteLock.writeLock(); try { rLock.lock(); //業務操作 } catch (InterruptedException e) { log.error(e);
} finally { rLock.unlock();
}

將讀鎖和寫鎖分開,最大的好處是提升讀操作的性能,因為讀和讀之間是共享的,不存在互斥性。而我們的實際業務場景中,絕大多數數據操作都是讀操作。所以,如果提升了讀操作的性能,也就會提升整個鎖的性能。

下面總結一個讀寫鎖的特點:

  • 讀與讀是共享的,不互斥
  • 讀與寫互斥
  • 寫與寫互斥

2、鎖分段

此外,為了減小鎖的粒度,比較常見的做法是將大鎖:分段。

在java中ConcurrentHashMap,就是將數據分為16段,每一段都有單獨的鎖,并且處于不同鎖段的數據互不干擾,以此來提升鎖的性能。

放在實際業務場景中,我們可以這樣做:

比如在秒殺扣庫存的場景中,現在的庫存中有2000個商品,用戶可以秒殺。為了防止出現超賣的情況,通常情況下,可以對庫存加鎖。如果有1W的用戶競爭同一把鎖,顯然系統吞吐量會非常低。

為了提升系統性能,我們可以將庫存分段,比如:分為100段,這樣每段就有20個商品可以參與秒殺。

在秒殺的過程中,先把用戶id獲取hash值,然后除以100取模。模為1的用戶訪問第1段庫存,模為2的用戶訪問第2段庫存,模為3的用戶訪問第3段庫存,后面以此類推,到最后模為100的用戶訪問第100段庫存。

快看我在Redis分布式鎖上栽的八個跟頭

如此一來,在多線程環境中,可以大大的減少鎖的沖突。 以前多個線程只能同時競爭1把鎖,尤其在秒殺的場景中,競爭太激烈了,簡直可以用慘絕人寰來形容,其后果是導致絕大數線程在鎖等待。 現在多個線程同時競爭100把鎖,等待的線程變少了,從而系統吞吐量也就提升了。

需要注意的地方是:將鎖分段雖說可以提升系統的性能,但它也會讓系統的復雜度提升不少。因為它需要引入額外的路由算法,跨段統計等功能。我們在實際業務場景中,需要綜合考慮,不是說一定要將鎖分段。

七、鎖超時問題

我在前面提到過,如果線程A加鎖成功了,但是由于業務功能耗時時間很長,超過了設置的超時時間,這時候redis會自動釋放線程A加的鎖。

有些朋友可能會說:到了超時時間,鎖被釋放了就釋放了唄,對功能又沒啥影響。

答:錯,錯,錯。對功能其實有影響。

通常我們加鎖的目的是:為了防止訪問臨界資源時,出現數據異常的情況。比如:線程A在修改數據C的值,線程B也在修改數據C的值,如果不做控制,在并發情況下,數據C的值會出問題。

為了保證某個方法,或者段代碼的互斥性,即如果線程A執行了某段代碼,是不允許其他線程在某一時刻同時執行的,我們可以用synchronized關鍵字加鎖。

但這種鎖有很大的局限性,只能保證單個節點的互斥性。如果需要在多個節點中保持互斥性,就需要用redis分布式鎖。

做了這么多鋪墊,現在回到正題。

假設線程A加redis分布式鎖的代碼,包含代碼1和代碼2兩段代碼。

快看我在Redis分布式鎖上栽的八個跟頭

由于該線程要執行的業務操作非常耗時,程序在執行完代碼1的時,已經到了設置的超時時間,redis自動釋放了鎖。 而代碼2還沒來得及執行。

快看我在Redis分布式鎖上栽的八個跟頭

此時,代碼2相當于裸奔的狀態,無法保證互斥性。 假如它里面訪問了臨界資源,并且其他線程也訪問了該資源,可能就會出現數據異常的情況。 (PS: 我說的訪問臨界資源,不單單指讀取,還包含寫入)

那么,如何解決這個問題呢?

答:如果達到了超時時間,但業務代碼還沒執行完,需要給鎖自動續期。

我們可以使用TimerTask類,來實現自動續期的功能:

Timer timer = new Timer(); timer.schedule(new TimerTask() { @Override public void run(Timeout timeout) throws Exception { //自動續期邏輯 }
}, 10000, TimeUnit.MILLISECONDS);

獲取鎖之后,自動開啟一個定時任務,每隔10秒鐘,自動刷新一次過期時間。這種機制在redisson框架中,有個比較霸氣的名字:watch dog,即傳說中的看門狗。

當然自動續期功能,我們還是優先推薦使用lua腳本實現,比如:

if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then redis.call('pexpire', KEYS[1], ARGV[1]); return 1; end; return 0;

需要注意的地方是:在實現自動續期功能時,還需要設置一個總的過期時間,可以跟redisson保持一致,設置成30秒。如果業務代碼到了這個總的過期時間,還沒有執行完,就不再自動續期了。

自動續期的功能是獲取鎖之后開啟一個定時任務,每隔10秒判斷一下鎖是否存在,如果存在,則刷新過期時間。如果續期3次,也就是30秒之后,業務方法還是沒有執行完,就不再續期了。

八、主從復制的問題

上面花了這么多篇幅介紹的內容,對單個redis實例是沒有問題的。

but,如果redis存在多個實例。比如:做了主從,或者使用了哨兵模式,基于redis的分布式鎖的功能,就會出現問題。

具體是什么問題?

假設redis現在用的主從模式,1個master節點,3個slave節點。master節點負責寫數據,slave節點負責讀數據。

快看我在Redis分布式鎖上栽的八個跟頭

本來是和諧共處,相安無事的。 redis加鎖操作,都在master上進行,加鎖成功后,再異步同步給所有的slave。

突然有一天,master節點由于某些不可逆的原因,掛掉了。

這樣需要找一個slave升級為新的master節點,假如slave1被選舉出來了。

快看我在Redis分布式鎖上栽的八個跟頭

如果有個鎖A比較悲催, 剛加鎖成功master就掛了,還沒來得及同步到slave1。

這樣會導致新master節點中的鎖A丟失了。后面,如果有新的線程,使用鎖A加鎖,依然可以成功,分布式鎖失效了。

那么,如何解決這個問題呢?

答:redisson框架為了解決這個問題,提供了一個專門的類:RedissonRedLock,使用了Redlock算法。

RedissonRedLock解決問題的思路如下:

  • 需要搭建幾套相互獨立的redis環境,假如我們在這里搭建了5套。
  • 每套環境都有一個redisson node節點。
  • 多個redisson node節點組成了RedissonRedLock。
  • 環境包含:單機、主從、哨兵和集群模式,可以是一種或者多種混合。

在這里我們以主從為例,架構圖如下:

快看我在Redis分布式鎖上栽的八個跟頭

RedissonRedLock加鎖過程如下:

  • 獲取所有的redisson node節點信息,循環向所有的redisson node節點加鎖,假設節點數為N,例子中N等于5。
  • 如果在N個節點當中,有N/2 + 1個節點加鎖成功了,那么整個RedissonRedLock加鎖是成功的。
  • 如果在N個節點當中,小于N/2 + 1個節點加鎖成功,那么整個RedissonRedLock加鎖是失敗的。
  • 如果中途發現各個節點加鎖的總耗時,大于等于設置的最大等待時間,則直接返回失敗。

從上面可以看出,使用Redlock算法,確實能解決多實例場景中,假如master節點掛了,導致分布式鎖失效的問題。

但也引出了一些新問題,比如:

  • 需要額外搭建多套環境,申請更多的資源,需要評估一下成本和性價比。
  • 如果有N個redisson node節點,需要加鎖N次,最少也需要加鎖N/2+1次,才知道redlock加鎖是否成功。顯然,增加了額外的時間成本,有點得不償失。

由此可見,在實際業務場景,尤其是高并發業務中,RedissonRedLock其實使用的并不多。

在分布式環境中,CAP是繞不過去的。

CAP指的是在一個分布式系統中:

  • 一致性(Consistency)
  • 可用性(Availability)
  • 分區容錯性(Partition tolerance)

這三個要素最多只能同時實現兩點,不可能三者兼顧。

如果你的實際業務場景,更需要的是保證數據一致性。那么請使用CP類型的分布式鎖,比如:zookeeper,它是基于磁盤的,性能可能沒那么好,但數據一般不會丟。

如果你的實際業務場景,更需要的是保證數據高可用性。那么請使用AP類型的分布式鎖,比如:redis,它是基于內存的,性能比較好,但有丟失數據的風險。

其實,在我們絕大多數分布式業務場景中,使用redis分布式鎖就夠了,真的別太較真。因為數據不一致問題,可以通過最終一致性方案解決。但如果系統不可用了,對用戶來說是暴擊一萬點傷害。

原文地址:https://mp.weixin.qq.com/s?__biz=MzkwOTIxNDQ3OA==&mid=2247567013&idx=1&sn=ded5a8d2ca7f385068a31f43a5cddbf8&utm_source=tuicool&utm_medium=referral

延伸 · 閱讀

精彩推薦
  • Redisredis實現排行榜功能

    redis實現排行榜功能

    排行榜在很多地方都能使用到,redis的zset可以很方便地用來實現排行榜功能,本文就來簡單的介紹一下如何使用,具有一定的參考價值,感興趣的小伙伴們...

    乘月歸5022021-08-05
  • RedisRedis如何實現數據庫讀寫分離詳解

    Redis如何實現數據庫讀寫分離詳解

    Redis的主從架構,能幫助我們實現讀多,寫少的情況,下面這篇文章主要給大家介紹了關于Redis如何實現數據庫讀寫分離的相關資料,文中通過示例代碼介紹...

    羅兵漂流記6092019-11-11
  • Redisredis中如何使用lua腳本讓你的靈活性提高5個逼格詳解

    redis中如何使用lua腳本讓你的靈活性提高5個逼格詳解

    這篇文章主要給大家介紹了關于redis中如何使用lua腳本讓你的靈活性提高5個逼格的相關資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具...

    一線碼農5812019-11-18
  • Redis詳解Redis復制原理

    詳解Redis復制原理

    與大多數db一樣,Redis也提供了復制機制,以滿足故障恢復和負載均衡等需求。復制也是Redis高可用的基礎,哨兵和集群都是建立在復制基礎上實現高可用的...

    李留廣10222021-08-09
  • RedisRedis的配置、啟動、操作和關閉方法

    Redis的配置、啟動、操作和關閉方法

    今天小編就為大家分享一篇Redis的配置、啟動、操作和關閉方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧 ...

    大道化簡5312019-11-14
  • RedisRedis全量復制與部分復制示例詳解

    Redis全量復制與部分復制示例詳解

    這篇文章主要給大家介紹了關于Redis全量復制與部分復制的相關資料,文中通過示例代碼介紹的非常詳細,對大家學習或者使用Redis爬蟲具有一定的參考學習...

    豆子先生5052019-11-27
  • Redisredis 交集、并集、差集的具體使用

    redis 交集、并集、差集的具體使用

    這篇文章主要介紹了redis 交集、并集、差集的具體使用,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友...

    xiaojin21cen10152021-07-27
  • RedisRedis 事務知識點相關總結

    Redis 事務知識點相關總結

    這篇文章主要介紹了Redis 事務相關總結,幫助大家更好的理解和學習使用Redis,感興趣的朋友可以了解下...

    AsiaYe8232021-07-28
主站蜘蛛池模板: 中文字幕免费看 | 黄工厂精品免费观看 | 精品久久久一 | av在线电影网 | 国产在线观看免费 | 国产一区二区三区在线 | 中文字幕在线一区二区三区 | 日狠狠| 免费日韩精品 | 精产国产伦理一二三区 | 久热在线视频 | 特黄特色的大片观看免费视频 | 精品久久精品 | 欧美一区永久视频免费观看 | 日本不卡在线观看 | 日韩精品一区二区三区 | 免费精品 | 久草国产视频 | 亚洲电影一区 | 久久久久久天堂 | 婷婷久久综合 | 国产精品99久久久久久动医院 | 狠狠色噜噜狠狠狠狠 | 欧美视频三区 | 亚洲一区av在线 | 国产精品久久久久久久久久东京 | 欧美一区二区三区四区不卡 | 日韩中文字幕免费视频 | 国产免费一区 | 免费观看日韩 | 黄色国产 | 激情网页| 欧美日韩一区二 | 日韩精品免费一区二区夜夜嗨 | 欧美一区2区三区4区公司二百 | 国产一级久久久久 | 国产51人人成人人人人爽色哟哟 | 国产精品69毛片高清亚洲 | 51ⅴ精品国产91久久久久久 | 免费一区二区三区 | 国产精品免费av |