RDBMS만큼의 정합성과 영속성을 보장할 필요가 없는 데이터들을 빠르게 처리하거나 일정 기간동안만 보관하고 있기 위한 용도로 레디스(Redis), memcached 등의 in-memory 기반 저장소가 많이 사용된다. 그중에서도 Redis는 빠른 성능을 유지하면서도 일정 수준 이상의 persistence를 제공하고, 다양한 native 데이터 구조들을 제공하여 효율적이고 편리한 사용이 가능하게 해주기 때문에 다양한 use-case들이 존재한다.
이 글은 실제 명령어를 날려서 레디스를 직접 사용해보는 것을 배우기 보다는 어떤 in-memory 저장소를 선택할지 고민하는 분들을 위해서 주요 운영 방식, 레디스의 내부 동작 방식 및 특징, 주요 클라이언트들에 대한 정보를 제공하는 쪽에 초점이 맞춰져 있다.
운영 모드 (Operation Modes)
레디스는 단일 인스턴스만으로도 충분히 운영이 가능하지만, 물리 머신이 가진 메모리의 한계를 초과하는 데이터를 저장하고 싶거나, failover에 대한 처리를 통해 HA를 보장하려면 센티넬이나 클러스터 등의 운영 모드를 선택해서 사용해야 한다. 각 모드들이 어떤 특성을 갖는지 좀더 자세히 알아보도록 하자.
단일 인스턴스(Single instance)
HA(High availibilty) 지원 안됨.
센티넬(Sentinel)
HA 지원
master/slave replication
sentinel process
redis와 별도의 process
여러개의 독립적인 sentinel process들이 서로 협동하여 운영된다 (SPOF 아님)
안정적 운영을 위해서는 최소 3개 이상의 sentinel instance 필요 (fail over를 위해 과반수 이상 vote 필요)
redis process가 실행되는 각 서버마다 각각 sentinel process를 띄워놓는 방법
redis process가 실행되는 서버와 별개로 redis에 액세스를 하는 application server들에 sentinel process를 띄워놓는것도 가능
등등 다양한 구성이 가능
지속적으로 master/slave 가 제대로 동작을 하고있는지 모니터링
master에 문제가 감지되면 자동으로 failover 수행
클라이언트는 어떻게 redis server에 연결해서 데이터를 조회하나?
먼저 sentinel에 연결해서 현재 master를 조회해야 한다.
클러스터(Cluster)
HA, sharding 지원
Sentinel과 동시에 사용하는 것이 아님! 완전히 별도의 솔루션.
dataset을 자동으로 여러 노드들에 나눠서 저장해준다.
Redis Cluster 기능을 지원하는 client를 써야만 데이터 액세스 시에 올바른 노드로 redirect가 가능하다.
Cluster node들의 동작 방식
serve clients 6379 (data port)
cluster bus 16379 (data port + 10000)
자체적인 바이너리 프로토콜을 통해 node-to-node 통신을 한다.
failure detection, configuration update, failover authorization 등을 수행
각 노드들은 클러스터에 속한 다른 노드들에 대한 정보를 모두 갖고있다.
Sharding 방식
최대 1000개의 노드로 샤딩해서 사용. 그 이상은 추천하지 않음
consistent hashing을 사용하지 않는대신 hashslot이라는 개념을 도입
hashslot
결정방법 CRC16(key) mod 16384를
CRC16을 이용하면 16384개의 슬롯에 균일하게 잘 분배됨
노드별로 자유롭게 hash slot을 할당 가능
예)
Node A contains hash slots from 0 to 5500.
Node B contains hash slots from 5501 to 11000.
Node C contains hash slots from 11001 to 16383.
운영 중단 없이 hash slots을 다른 노드로 이동시키는 것이 가능
add/remove nodes
노드별 hashslot 할당량 조정
multiple key operations 을 수행하려면 모든 키값이 같은 hashslot에 들어와야 한다.
이를 보장하기위해 hashtag 라는 개념 도입
{} 안에있는 값으로만 hash 계산
{foo}_my_key
{foo}_your_key
Replication & failover
failover를 위해 클러스터의 각 노드를 N대로 구성가능
master(1대) / slave(N-1대)
async replication (master → slave replication 과정에서 ack을 받지 않음)
데이터 손실 가능성 존재
master가 client요청을 받아서 ack을 완료한 후, 해당 요청에 대한 replication이 slave로 전파되기 전에 master가 죽는 경우 존재
클라이언트는 클러스터에 어떻게 연결해서 데이터를 조회하나?
redis client는 클러스터 내의 어떤 노드에 쿼리를 날려도 된다(슬레이브에도 가능).
ex) GET my_key
쿼리를 받은 노드가 해당 쿼리를 분석
해당 키를 자기 자신이 갖고있다면 바로 찾아서 값을 리턴
그렇지 않은경우 해당 키를 저장하고 있는 노드의 정보를 리턴 (클라이언트는 이 정보를 토대로 쿼리를 다시 보내야함)
ex) MOVED 3999 127.0.0.1:6381
메모리 동작 방식
key가 만료되거나 삭제되어 redis가 메모리를 해제하더라도, OS에서 해당 분량만큼 바로 메모리가 확보되진 않음
꼭 redis에만 해당되는 이야기는 아님
5GB중 3GB의 데이터를 메모리에서 해제 -> OS 메모리 사용량은 여전히 5GB
하지만 다시 데이터를 add하면 logically freed된 영역에 잡히므로 실제 메모리 5GB를 넘지는 않는다.
따라서 peak memory usage 기준으로 잡아야 한다.
대부분 5GB 정도 사용하고 가끔 10GB 가 필요하더라도, 10GB 메모리를 이상의 머신이 필요.
maxmemory 설정을 해두는게 좋음 (하지 않으면 무한히 메모리 사용하다가 머신 전체가 죽을 가능성)
maxmemory 설정시의 eviction policy
no-eviction (추가 memory를 사용하는 write command에 대해 에러 리턴)
allkeys-lru (전체 아이템 중에서 LRU)
volatile-lru (expire 되는 아이템 중에서 LRU)
volatile-ttl (expire 되는 아이템 중 TTL이 얼마 안남은 녀석 순으로)
RDB persistence를 사용한다면 maxmemory를 실제 가용 메모리의 45%정도로 설정하는것을 추천. 스냅샷을 찍을때 현재 사용중인 메모리의 양만큼 필요하다. (5%는 오버헤드에 대비한 마진)
사용하고 있지 않다면 가용 메모리의 95%정도로
동일 key-value 데이터를 저장한다고 가정했을 때, Cluster Mode를 사용할 경우 Single instance 보다 1.5~2배 정도 메모리를 더 사용하는것에 주의해야 한다.
Redis cluster의 경우 내부적으로 cluster안에 저장된 key를 hashslot으로 맵핑하기 위한 테이블을 가지고 있기 때문에 추가적인 memory overhead가 발생한다.
이때문에 key의 숫자가 많아질수록 이러한 현상이 더 두드러진다
4.x 버전에 이와 관련한 메모리 최적화 기능이 들어가서 3.x 버전보다는 더 적게 메모리를 사용하지만, 여전히 Single instance보다는 많은 메모리를 필요로 한다.
데이터 영속성 (Data Persistence)
memcached의 경우 데이터가 메모리에만 저장되기 때문에 프로세스가 재기동되면 메모리상의 데이터는 모두 유실된다. 하지만 redis의 경우 기본적으로 disk persistence가 설정되어있기 때문에, 프로세스를 재시작 하더라도 셧다운 되기 전의 마지막 상태와 거의 동일한 (약간의 손실은 있을 수 있다) 상태로 돌려 놓을 수 있다.
RDB persistence
일정 인터벌로 point-in-time snapshots을 생성
compact한 단일 파일로 저장됨 백업하기 좋음
부모 프로세스는 자식 프로세스를 fork. fork된 프로세스에서 모든 persist I/O처리
restart 시간이 빠르다
H/W 사양에 따라 다르겠지만 보통 메모리 사용량 1GB당 10~20 초정도 로드타임
멈췄을때 데이터 유실 가능성이 더 높다.
몇 분 정도의 데이터 유실 가능성을 감내 할 수 있다면 RDB를 쓰는것을 추천
AOF (append only file)
모든 write operation 을 log로 남기고 서버 재시작 시점에 replay
데이터 양이 많아지면 해당 시점의 데이터셋을 만들어낼 수 있도록하는 minimum log들만 남기는 compaction을 진행
언어별로 레디스 클라이언트 라이브러리들이 다양하게 존재하고 있다. 그중에서 자바언어로 만들어진 가장 많이 사용되는 3가지를 뽑아서 비교해 보았다. async style API를 사용하는 경우 처리량(throughput)을 높일 수 있지만 오히려 개별 요청에 대한 응답 지연(latency)은 sync API 보다 더 느려질 수 있으니 상황에 맞게 선택해서 사용하는 것이 좋다.
Redis란? 정말 단순하게 표현하면 key-value 형태의 값을 저장할 수 있는 하나의 In-Memory DB라고 생각하시면 됩니다.
사용용도는 정말 많습니다. Springboot에서는 세션클러스터링을 위해 Redis를 사용하기도 하고, Cache를 위해서 사용하기도 하며, 여러 서버에서 공통으로 공유해야하는 정보를 담는 용도로 사용하기도 합니다. 필자는 챗봇을 개발중인데, 이중화된 서버에서 세션값을 공유하기위한 용도로 Redis를 사용하려고 합니다. 우선 이번 포스팅에서는 Redis 설치 및 설정, 그리고 간단한 사용법에 대한 포스팅입니다.
Redis Server의 최대 메모리 사용양을 설정한다. 만약 memory에 한계가 도달했다면 Redis는 선택된 eviction policy(제거정책)에 따라 key들을 제거한다. 만약 제거에 실패한다면 read-only에 대한 명령만 수행할 수있게 된다.
maxmemory-policy [policy]
max memory 도달시 취할 정책을 설정한다 1) volatile-ru : expire가 설정된 key들 중 LRU 알고리즘을 이용해 선택된 key를 제거한다. 2) alleys-lru : 모든 keys에 대해 LRU 알고리즘을 적용해 제거한다. 3) volatile-random : expire가 설정된 key들 중 임의의 key를 제거한다. 4) alleys-random : 모든 keys중 랜덤하게 제거한다. 5) volatile-ttl : expire time이 가장 적게 남은 key를 제거한다. 6) noeviction : 어떠한 key도 제거하지 않는다. read-only작업만 허용하고 write와 그 밖에 명령은 error를 내뿜는다.
appendonly [yes||no]
Redis는 기본적으로 비동기로 disk에 dataset의 dump를 남긴다. 이 방법은 최근 데이터가 손실되어도 큰 문제가 없다면 사용해도 좋지만, 하나라도 데이터의 유실을 원치 않는 상황이라면 yes로 설정하여 요청받는 모든 write를 disk에 쓰도록하면 된다.(default file appendonly.aof)
appendfilename [file name]
append only 파일 이름을 설정한다.
여기까지 몇가지 설정들을 다루어봤다. 실제 위에 설정들 일부를 사용하여 Master-Slave 관계를 구성해볼 것이다.
우선 MasterNode의 설정파일로 사용할 redis.conf이다.
>bind 127.0.0.1
>port 6379
>requirepass yourpassword
>daemonize yes
이정도 설정으로 나머지는 기본설정을 사용한다.
이제는 나머지 SlaveNode의 설정파일 2개이다.
>bind 127.0.0.1
>port 6380(slave -1) / port 6381(slave-2)
>replicaof 127.0.0.1 6379
>masterauth yourpassword
>daemonize yes
로 구성한다.
이제 순차적으로 실행시켜본다
>$REDIS/src/redis-server ../redis.conf
>$REDIS/src/redis-server ../redis-slave1.conf
>$REDIS/src/redis-server ../redis-slave2.conf
Master&Slave를 순차적으로 실행 시킨 로그이다. Connection이 맺어지고 있는 것이 보인다.
그리고 실제로 데이터의 복제가 잘 이루어지는지 보기 위해 몇개의 창을 더 띄워서
cli로 데이터를 삽입,조회해본다.
복사가 잘된것을 확인할 수 있다. 그렇다면 혹시나 Master와의 관계를 끊기 위해
Master 노드를 중지시켰다면 어떻게 될까?
SlaveNode들의 로그를 보면 connection refused 로그가 계속해서 떨어진다.
하지만 아까 보았던 설정에서 replica-server-stale-data의 설정에 따라 Slave들의 행동이
달라질것이다.
마지막으로 다시 MasterNode를 띄워보면
Slave들이 다시 Master에 connection 된것을 볼수있다.
여기까지는 좋다. 데이터 복제를 위해 replica도 구성했고, 근데 하나찜찜한 것이있다. Master가 죽으면 알아서 Slave중에서 Master를 선출하면 좋을 텐데.... 방법이 있다!
바로 sentinel을 이용하여 클러스터를 구성해주는 것이다. sentinel은 아쉽게도 다음 포스팅에서 다뤄볼 예정이다.