Skip to content

gjlee0802/ElasticStack-Kafka-Docker-Study

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

81 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

목차 정리

ElasticStack 우분투 환경에서 설치
ELK구성요소

엘라스틱서치

Elasticsearch 용어정리
Elasticsearch 특징
Elasticsearch 데이터 색인
Elasticsearch 실행환경 설정
...

키바나

키바나 기본
키바나 코로나 대시보드 만들기
...

컨테이너

OCI와 CRI
저수준 컨테이너 런타임과 고수준 컨테이너 런타임
컨테이너와 VMs의 차이
도커 실습-기본 명령어
도커 실습-이미지 생성
도커허브 이용
...

Kafka

Producer & Consumer
Topic
Broker
Replication
ISR
Lag
Burrow
Zookeeper
...

ElasticStack 우분투 환경에서 설치

yoonje님의 아래 레포지토리에서 'tuto'파일을 https://github.com/gjlee0802/ElasticStackStudy/blob/main/tuto 로 대체하여 수행.
yoonje님의 설치 튜토리얼: https://github.com/yoonje/elastic-stack-tutorial
tuto에서 패키지 다운로드 주소 수정, 우분투 환경에 맞게 수정
주의사항: 사용자명 "user"을 기준으로 함.

ElasticStackStudy1

ELK구성요소(Elasticsearch,Logstash,Kibana)

Elasticsearch (데이터베이스)

Logstash로부터 받은 데이터를 검색 및 집계를 하여 필요한 관심 있는 정보를 획득.
Lucene 검색엔진 기반의 데이터베이스로 고성능의 검색 기능, 대규모 분산 시스템 기능 등을 제공한다.
표준 RESTful API와 JSON을 이용해 데이터를 처리합니다.

Logstash (Input > filter > output 의 pipeline 구조로 수집하고 필터링하여 전달)

다양한 소스( DB, csv파일 등 )의 로그 또는 트랜잭션 데이터를 수집, 집계, 파싱하여 Elasticsearch로 전달
데이터 수집 파이프라인 도구입니다.
각 데이터베이스의 데이터, 로우 데이터, 윈도우 이벤트 등으로부터 데이터를 수집합니다.
다양한 플러그인을 이용하여 데이터를 집계 및 보관, 서버 데이터 처리, 파이프라인으로 데이터를 수집하여 필터를 통해 변환 후 ElasticSearch로 전송합니다.

Kibana (시각화 담당)

Elasticsearch의 빠른 검색을 통해 데이터를 시각화 및 모니터링
Elastic Search에 저장된 정보들을 검색 및 분석하고 시각화하는 기능을 갖고 있습니다.

Beats (데이터 전송 담당)

경량 에이전트로 설치되어 데이터를 Logstash 또는 ElasticSearch로 전송합니다.

  1. FileBeat
  • 서버에서 로그파일을 제공합니다.
  1. PacketBeat
  • 응용 프로그램 서버간에 교환되는 트랜잭션에 대한 정보를 제공하는 네트워크 패킷 분석기 입니다.
  1. MetricBeat
  • 운영 체제 및 서비스에서 Metrics를 주기적으로 수집하는 서버 모니터링 에이전트입니다.
  1. WinlogBeat
  • Windows 이벤트 로그를 제공합니다.

RDBMS와 Elasticsearch비교

RDBMS_Elastic RDBMS_Elastic_

Elasticsearch 용어 정리

1) 클러스터( Cluster )

클러스터란 Elasticsearch에서 가장 큰 시스템 단위를 의미하며, 최소 하나 이상의 노드로 이루어진 노드들의 집합입니다.
서로 다른 클러스터는 데이터의 접근, 교환을 할 수 없는 독립적인 시스템으로 유지되며,
여러 대의 서버가 하나의 클러스터를 구성할 수 있고, 한 서버에 여러 개의 클러스터가 존재할수도 있습니다.

2) 노드( Node )

Elasticsearch를 구성하는 하나의 단위 프로세스를 의미합니다.
그 역할에 따라 Master-eligible, Data, Ingest, Tribe 노드로 구분할 수 있습니다.

  • 클러스터의 일부이며 데이터를 저장하고 클러스터의 인덱싱 및 검색 기능에 참여하는 단일 서버입니다.
  • 노드에 할당되는 임의 UUID인 이름으로 식별합니다.
  • 특정 클러스터를 클러스터 이름으로 결합하도록 노드를 구성 할 수 있습니다.

3) 인덱스( Index ) / 샤드( Shard ) / 복제( Replica )

index는 RDBMS에서 database와 대응하는 개념입니다.
또한 shard와 replica는 Elasticsearch에만 존재하는 개념이 아니라, 분산 데이터베이스 시스템에도 존재하는 개념입니다.

인덱스

  • 색인 과정을 거친 결과물, 또는 색인된 데이터가 저장되는 저장소입니다.
  • 다소 유사한 특성을 갖는 문서들의 집합입니다.

샤드

  • Index는 잠재적으로 단일 노드의 하드웨어 제한을 초과 할 수 있는 많은 양의 데이터를 저장 할 수 있습니다. 하지만 단일 노드의 디스크가 맞지 않거나 단일 노드의 검색 요청만 처리하기에는 너무 느릴 수 있기 때문에 shards를 이용하여 Index를 여러 조각으로 나눌 수 있습니다.
  • 수평적으로 콘텐츠 볼륨을 split/scale 가능합니다.
  • 여러 노드에서 잠재적으로 분산을 통해 작업을 분산 및 병렬 처리를 할 수 있으므로 성능/처리량이 향상됩니다.

-> 샤딩과 파티셔닝 차이

  • 샤딩 : 여러시스템에 나누어 저장
  • 파티셔닝 : 한 시스템에서 여러 테이블로 저장

Shard와 Replica 개념 참고1 : https://jiseok-woo.tistory.com/8
Shard와 Replica 개념 참고2 : http://guruble.com/elasticsearch-2-shard-replica/

복제

  • 장애가 발생할 경우 고가용성을 제공합니다. 그렇기 때문에 복제본 샤드는 복사된 원본/기본 샤드와 동일한 노드에 할당되지 않습니다.
  • 모든 복제본에서 검색을 병렬로 실행할 수 있기 때문에 검색 볼륨/처리량을 수평 확장 할 수 있습니다.
  • 기본적으로 각 인덱스는 4개의 기본 샤드와 1개의 복제본이 할당됩니다.
  • 또 다른 형태의 shard라고 할 수 있습니다. 노드를 손실했을 경우 데이터의 신뢰성을 위해 샤드들을 복제하는 것이죠. 따라서 replica는 서로 다른 노드에 존재할 것을 권장합니다.

->Replica가 필요한 이유 2가지

    1. ‘검색성능(search performance)‘
    1. ‘장애복구(fail-over)‘

ElasticsearchArch

4) 문서( Document )

JSON 형태의 실제 의미있는 데이터를 가진 Elasticsearch 기본 저장단위
RDB의 row, 레코드와 비슷.
문서는 각각 고유한 ID 값을 갖는다
고유한 ID:

  • 사용자 지정값 or 랜덤값
  • 데이터를 찾아가는 Meta key 역할

Elasticsearch 특징

Scale out

  • 샤드를 통해 규모가 수평적으로 늘어날 수 있음

고가용성

  • Replica를 통해 데이터의 안정성을 보장 Replica

Schema Free

  • Json 문서를 통해 데이터 검색을 수행하므로 스키마 개념이 없음

Restful

  • 데이터 CURD 작업은 HTTP Restful API를 통해 수행한다. restful

멀티테넌시 (multitenancy)

데이터들은 인덱스(Index) 라는 논리적인 집합 단위로 구성되며 서로 다른 저장소에 분산되어 저장됩니다.
서로 다른 인덱스들을 별도의 커넥션 없이 하나의 질의로 묶어서 검색하고, 검색 결과들을 하나의 출력으로 도출할 수 특징.

역색인(inverted index) -> ElasticSearch가 빠른 이유

RDB의 경우
RDBsearch like 검색: fox가 포함된 행들을 가져온다고 하면 다음과 같이 Text 열을 한 줄씩 찾아 내려가면서 fox가 있으면 가져오고 없으면 넘어가는 식으로 데이터를 가져옵니다
ElasticSearch의 경우
inverted_index
Inverted Index: 책의 맨 뒤에 있는 주요 키워드에 대한 내용이 몇 페이지에 있는지 볼 수 있는 찾아보기 페이지에 비유할 수 있습니다.
Elasticsearch에서는 추출된 각 키워드를 텀(term) 이라고 부릅니다.
이렇게 역 인덱스가 있으면 fox를 포함하고 있는 도큐먼트들의 id를 바로 얻어올 수 있습니다.

텍스트 분석(Text Analysis)

Elasticsearch의 애널라이저는 0-3개의 캐릭터 필터(Character Filter)와 1개의 토크나이저(Tokenizer), 그리고 0-n개의 토큰 필터(Token Filter)로 이루어집니다. Analyzer
캐릭터 필터: 전체 문장에서 특정 문자를 대치하거나 제거하는데 이 과정을 담당하는 기능.
토크나이저: 문장에 속한 단어들을 텀 단위로 하나씩 분리 해 내는 처리 과정을 거치는데 이 과정을 담당하는 기능.(반드시 1개만 적용이 가능합니다.)
lowercase 토큰필터: 대문자를 모두 소문자로 바꿔줍니다.
stop 토큰필터: 불용어(stopword, 검색어로서의 가치가 없는 단어)를 제거.
snowball 토큰필터: 형태소 분석 과정을 거쳐서 문법상 변형된 단어를 일반적으로 검색에 쓰이는 기본 형태로 변환.(jumps와 jumping은 모두 jump로 변경)

출처 :
https://victorydntmd.tistory.com/308
https://iassad.tistory.com/7
https://heowc.tistory.com/49
https://esbook.kimjmin.net/06-text-analysis/6.1-indexing-data

ElasticStackStudy2

ElasticSearch Data 색인

  • [동사] 색인 (indexing) : 데이터가 검색될 수 있는 구조로 변경하기 위해 원본 문서를 검색어 토큰들으로 변환하여 저장하는 일련의 과정입니다.
  • [명사] 인덱스 (index, indices) : 색인 과정을 거친 결과물, 또는 색인된 데이터가 저장되는 저장소입니다. 또한 Elasticsearch에서 도큐먼트들의 논리적인 집합을 표현하는 단위이기도 합니다.
  • 검색 (search) : 인덱스에 들어있는 검색어 토큰들을 포함하고 있는 문서를 찾아가는 과정입니다.
  • 질의 (query) : 사용자가 원하는 문서를 찾거나 집계 결과를 출력하기 위해 검색 시 입력하는 검색어 또는 검색 조건입니다.
    Indexing

ElasticSearch 실행 옵션

  • -d : Elasticsearch를 백그라운 데몬으로 실행합니다.
  • -p <파일명> : Elasticsearch 프로세스 ID를 지정한 파일에 저장합니다. 실행이 종료되면 저장된 파일은 자동으로 삭제됩니다.

ElasticSearch 실행 환경 설정방법 2가지

  • 홈 디렉토리의 config 경로 아래 있는 파일들을 변경
    • jvm.options - Java 힙메모리 및 환경변수 (Elasticsearch는 Java의 가상머신 위에서 실행이 되는데 7.0 기준으로 1gb의 힙메모리가 기본으로 설정되어 있습니다.)
    • elasticsearch.yml - Elasticsearch 옵션 (elasticsearch 실행 환경에 대한 실제 설정들은 대부분 elasticsearch.yml 파일에서 설정)
    • log4j2.properties - 로그 관련 옵션
  • 시작 명령으로 설정하는 방법
    • Elasticsearch 를 처음 실행할 때 -E 커맨드 라인 명령을 통해서도 가능합니다.

    elasticsearch.yml 설정

    • cluster.name: "<클러스터명>"
    • node.name: "<노드명>"
    • node.attr.: ""
    • path.data: [ "<경로>" ]
    • path.logs: "<경로>"
    • bootstrap.memory_lock: true
    • network.host: <ip 주소>
    • http.port: <포트 번호>
    • transport.port: <포트 번호>
    • discovery.seed_hosts: [ "<호스트-1>", "<호스트-2>", ... ]
    • cluster.initial_master_nodes: [ "<노드-1>", "<노드-2>" ]

    시작 명령으로 설정

    클러스터명은 my-cluster 노드명은 node-1로 노드를 실행하기 위해서는 다음과 같이 실행.
    • $ bin/elasticsearch -E cluster.name=my-cluster -E node.name="node-1"

클러스터 구성

Elasticsearch의 노드들은 클라이언트와의 통신을 위한 http 포트(9200-9299), 노드 간의 데이터 교환을 위한 tcp 포트 (9300-9399) 총 2개의 네트워크 통신을 열어두고 있습니다.
일반적으로 1개의 물리 서버마다 하나의 노드를 실행하는 것을 권장하고 있습니다.

여러 서버에 하나의 클러스터로 실행

  • 3개의 다른 물리 서버에서 각각 1개 씩의 노드를 실행하면
    cluster_1
  • 서버1 에서 두개의 노드를 실행하고, 또 다른 서버에서 한개의 노드를 실행
    cluster_2

하나의 서버에서 여러 클러스터 실행

  • 하나의 물리 서버에서 서로 다른 두 개의 클러스터 실행
    cluster_3

출처: https://esbook.kimjmin.net/03-cluster/3.1-cluster-settings

디스커버리 (Discovery)

노드가 처음 실행 될 때 같은 서버, 또는 discovery.seed_hosts: [ ] 에 설정된 네트워크 상의 다른 노드들을 찾아 하나의 클러스터로 바인딩 하는 과정
순서

  1. discovery.seed_hosts 설정에 있는 주소 순서대로 노드가 있는지 여부를 확인
  • 노드가 존재하는 경우 > cluster.name 확인
    • 일치하는 경우 > 같은 클러스터로 바인딩 > 종료
    • 일치하지 않는 경우 > 1로 돌아가서 다음 주소 확인 반복
  • 노드가 존재하지 않는 경우 > 1로 돌아가서 다음 주소 확인 반복
  1. 주소가 끝날 때 까지 노드를 찾지 못한 경우
  • 스스로 새로운 클러스터 시작
    discovery

인덱스와 샤드 - Index & Shards

  • 인덱스는 기본적으로 샤드(shard)라는 단위로 분리되고 각 노드에 분산되어 저장이 됩니다.
  • 같은 샤드와 복제본은 동일한 데이터를 담고 있으며 반드시 서로 다른 노드에 저장이 됩니다.
  • 샤드의 개수는 인덱스를 처음 생성할 때 지정할 수 있습니다.
  • 프라이머리 샤드 수는 인덱스를 처음 생성할 때 지정하며, 인덱스를 재색인 하지 않는 이상 바꿀 수 없습니다.
  • 복제본의 개수는 나중에 변경이 가능합니다.

마스터 노드와 데이터 노드 - Master & Data

마스터 노드 (Master Node)

하나의 노드는 인덱스의 메타 데이터, 샤드의 위치와 같은 클러스터 상태(Cluster Status) 정보를 관리하는 마스터 노드의 역할을 수행합니다.
클러스터마다 반드시 하나의 마스터 노드가 존재합니다.

(elasticsearch.yml)

  • 디폴트 설정은 node.master: true로 되어 있습니다. ( 모든 노드가 마스터 노드로 선출될 수 있는 마스터 후보 노드 )
  • 클러스터가 커져서 노드와 샤드들의 개수가 많아지게 되면 모든 노드들이 마스터 노드의 정보를 계속 공유하는 것은 부담이 될 수 있습니다. 마스터 노드로 사용하지 않는 노드들은 설정값을 node.master: false 로 하여 마스터 노드의 역할을 하지 않도록 합니다.

데이터 노드 (Data Node)

실제로 색인된 데이터를 저장하고 있는 노드입니다.

(elasticsearch.yml)

  • 마스터 후보 노드들은 node.data: false 로 설정하여 마스터 노드 역할만 하고 데이터는 저장하지 않도록 할 수 있습니다.

Split Brain 문제

마스터 후보 노드들은 3개 이상의 홀수 개를 놓는 것을 권장하고 있습니다. 만약에 마스터 후보 노드를 2개 혹은 짝수로 운영하는 경우 네트워크 유실로 인해 다음과 같은 상황을 겪을 수 있습니다. splitbrain
Split Brain이란
네트워크 단절로 마스터 후보 노드가 분리되면 각자가 서로 다른 클러스터로 구성되어 동작하다가
네트워크가 복구 되고 하나의 클러스터로 다시 합쳐졌을 때 데이터 정합성에 문제가 생기고 데이터 무결성 손실되는 현상.

Split Brain 문제를 피하기
마스터 후보 노드 개수는 항상 홀수로 하고 가동을 위한 최소 마스터 후보 노드 설정은 (전체 마스터 후보 노드)/2 1 로 설정

(elasticsearch.yml)
7.0버전부터는 node.master: true 인 노드가 추가되면 클러스터가 스스로 minimum_master_nodes 노드 값을 변경하도록 되었습니다.
사용자는 최초 마스터 후보로 선출할 cluster.initial_master_nodes: [ ] 값만 설정하면 됩니다.

서버 이중화 구조(Active-Standby, Active-Active) 개념

Active-Standby 구조

하나의 서버가 활성 상태로 서비스 중일 때 다른 하나는 대기를 한다.
활성 서버에 장애가 발생해 서비스를 못하게 되면, 대기서버가 장애 발생을 감지하고 대기 서버에 모든 서비스를 올려서 서비스를 운영하는 구조이다.

Active-Active 구조

다중화 장비가 두대 모두 활성화 되어 동작하는 구성이다. 두대가 모두 처리를 하기 때문에 Active-Standby에 비하여 처리률이 높지만, 보통 설정 및 구성이 복잡해지며 한대가 죽었을 경우, 두대의 처리량을 한대로 처리하기 때문에 리소스가 높아져 리소스에 대한 계획도 필요하다.

샤드와 성능 문제

Elasticsearch에서는 샤드당 단일 쓰레드가 각 쿼리를 실행합니다. 캐싱을 사용하지 않을 때, 최소 쿼리 응답 시간은 데이터, 쿼리 유형 및 샤드 크기에 따라 달라집니다.
많은 개수의 작은 샤드를 조회하면 각 샤드마다 처리 속도는 빨라지지만 더 많은 작업을 큐에 넣고 순서대로 처리해야하므로, 더 적은 개수의 큰 샤드를 검색하는 것보다 반드시 빠르다고 보장할 수 없습니다.
동시에 여러 쿼리가 실행될 때, 여러 개의 작은 샤드가 오히려 쿼리 처리량(throughput)을 줄일 수도 있겠죠.
샤드의 수가 너무 적으면 단일 쿼리의 응답 속도는 느려질 수 있으나 대량의 쿼리가 진입될 경우 고른 성능을 보여줄 수 있고, 샤드의 수가 너무 많으면 단일 쿼리의 응답 속도는 빠를 수 있으나 대량의 쿼리가 인입될 경우 쿼리 별 성능 차이가 심해질 수 있습니다.
출처: https://www.elastic.co/kr/blog/how-many-shards-should-i-have-in-my-elasticsearch-cluster
https://brunch.co.kr/@alden/39

ElasticStackStudy3

RESTFul API : 항상 단일 URL로 접근을 하고 PUT, GET, DELETE 같은 http 메서드로 데이터를 처리합니다
http://<호스트>:<포트>/<인덱스>/_doc/<도큐먼트 id>

CRUD API

  • PUT (Update)
PUT my_index/_doc/1   
{   
  "name":"GyeongJoo Lee",   
  "message":"안녕하세요 Elasticsearch"   
}  
  • GET (Read)
GET my_index/_doc/1   
  • DELETE (Delete)
DELETE my_index/_doc/1   
  • POST (Create) POST 메서드는 PUT 메서드와 유사하게 데이터 입력에 사용이 가능합니다.
    도큐먼트를 입력할 때 POST 메서드로 <인덱스>/_doc 까지만 입력하게 되면 자동으로 임의의 도큐먼트id 가 생성됩니다. 도큐먼트id의 자동 생성은 PUT 메서드로는 동작하지 않습니다.
POST my_index/_doc   
{   
  "name":"GyeongJoo Lee",   
  "message":"안녕하세요 Elasticsearch"   
}  

벌크 API

  • 여러 명령을 배치로 수행하기 위해서 _bulk API의 사용이 가능합니다.
    _bulk API로 index, create, update, delete의 동작이 가능하며 delete를 제외하고는 명령문과 데이터문을 한 줄씩 순서대로 입해야 합니다.
  • 벌크 동작은 따로따로 수행하는 것 보다 속도가 훨씬 빠릅니다. 특히 대량의 데이터를 입력 할 때는 반드시 _bulk API를 사용해야 불필요한 오버헤드가 없습니다.

다음 명령으로 bulk.json 파일에 있는 내용들을 _bulk 명령으로 실행 가능합니다. 파일 이름 앞에는 @문자를 입력합니다.

$ curl -XPOST "http://localhost:9200/_bulk" -H 'Content-Type: application/json' --data-binary @bulk.json

검색 API

Elasticsearch의 진가는 쿼리를 통한 검색 기능에 있습니다.
검색은 인덱스 단위로 이루어집니다.

URI 검색

GET <인덱스명>/_search 형식으로 사용하며 쿼리를 입력하지 않으면 전체 도큐먼트를 찾는 match_all 검색을 합니다.

  • URI 검색으로 검색어 "value" 검색
GET test/_search?q=value   
  • URI 검색으로 검색어 "value AND three" 검색 (AND, OR, NOT)
GET test/_search?q=value AND three   
  • URI 검색으로 "field" 필드에서 검색어 "value" 검색 (검색어 value 을 field 필드에서 찾고 싶으면)
GET test/_search?q=field:value   

데이터 본문 (Data Body) 검색

데이터 본문(data body) 검색은 검색 쿼리를 데이터 본문으로 입력하는 방식입니다.
Elasticsearch의 QueryDSL을 사용하며 쿼리 또한 Json 형식으로 되어 있습니다.

match 쿼리 쿼리 입력은 항상 query 지정자로 시작합니다. 그 다음 레벨에서 쿼리의 종류를 지정하는데 위에서는 match 쿼리를 지정했습니다. 그 다음은 사용할 쿼리 별로 문법이 상이할 수 있는데 match 쿼리는 <필드명>:<검색어> 방식으로 입력합니다. 데이터 본문 검색으로 "field" 필드에서 검색어 "value" 검색

GET test/_search   
{   
  "query": {   
    "match": {   
      "field": "value"   
    }   
  }   
}   

멀티테넌시 (Multitenancy) 여러 개의 인덱스를 한꺼번에 묶어서 검색할 수 있는 멀티테넌시를 지원합니다.

  • 쉼표로 나열해서 여러 인덱스 검색
GET logs-2018-01,2018-02,2018-03/_search   
  • 와일드카드 * 를 이용해서 여러 인덱스 검색
GET logs-2018-*/_search   

Query DSL (Domain Specific Language)

Elasticsearch 는 검색을 위한 쿼리 기능을 제공합니다.
이런 데이터 시스템에서 제공하는 쿼리 기능을 Query DSL (Domain Specific Language) 이라고 이야기 하며 Elasticsearch 의 Query DSL 은 모두 json 형식으로 입력해야 합니다.

- match all(별다른 조건 없이 해당 인덱스의 모든 도큐먼트를 검색하는 쿼리)

GET my_index/_search   

와 아래는 동일

GET my_index/_search   
{   
  "query":{   
    "match_all":{ }   
   }   
}   

- match(풀 텍스트 검색에 사용되는 가장 일반적인 쿼리)

#match 쿼리로 message 필드에서 dog 검색

GET my_index/_search
{   
  "query": {   
    "match": {   
      "message": "dog"   
    }   
  }   
}   

dog가 포함된 도큐먼트들이 검색 결과로 나타납니다.
#match 쿼리로 message 필드에서 quick dog 검색
match 검색에 여러 개의 검색어를 집어넣게 되면 디폴트로 OR 조건으로 검색이 되어 입력된 검색어 별로 하나라도 포함된 모든 문서를 모두 검색합니다.

GET my_index/_search
{
  "query": {
    "match": {
      "message": "quick dog"
    }
  }
}

quick과 dog중 어떤 단어라도 포함한 도큐먼트들이 검색됩니다.

#검색어가 여럿일 때 검색 조건을 OR 가 아닌 AND 로 바꾸려면 operator 옵션을 사용할 수 있습니다.
quick dog 를 AND 조건으로 검색하려면 다음과 같습니다.

GET my_index/_search
{
  "query": {
    "match": {
      "message": {
        "query": "quick dog",
        "operator": "and"
      }
    }
  }
}

- match_phrase

"quick dog" 라는 구문을 공백을 포함해 정확히 일치하는 내용을 검색하려면 match_phrase 쿼리를 사용합니다.
#match_phrase 쿼리로 "lazy dog" 구문 검색

GET my_index/_search
{
  "query": {
    "match_phrase": {
      "message": "lazy dog"
    }
  }
}

#slop 이라는 옵션을 이용하여 slop에 지정된 값 만큼 단어 사이에 다른 검색어가 끼어드는 것을 허용할 수 있습니다.
match_phrase 쿼리에 slop:1 로 "lazy dog" 구문 검색

GET my_index/_search
{
  "query": {
    "match_phrase": {
      "message": {
        "query": "lazy dog",
        "slop": 1
      }
    }
  }
}

slop의 크기를 1로 했기 때문에 lazy와dog 사이에 jumping이 있는 "Lazy jumping dog" 값도 검색이 됩니다.

- query_string

URL검색에 사용하는 루씬의 검색 문법을 본문 검색에 이용하고 싶을 때 query_string 쿼리를 사용할 수 있습니다.

#message 필드에서 lazy와 jumping을 모두 포함하거나 또는 "quick dog" 구문을 포함하는 도큐먼트를 검색하는 쿼리입니다.
match_phrase 처럼 구문 검색을 할 때는 검색할 구문을 쌍따옴표 " 안에 넣습니다.

GET my_index/_search
{
  "query": {
    "query_string": {
      "default_field": "message",
      "query": "(jumping AND lazy) OR \"quick dog\""
    }
  }
}

"Lazy jumping dog" 도큐먼트와 "quick dog" 값을 포함하는 도큐먼트 두개가 결과로 리턴된 것을 확인할 수 있습니다.

Bool 복합 쿼리

  • must : 쿼리가 참인 도큐먼트들을 검색합니다.
  • must_not : 쿼리가 거짓인 도큐먼트들을 검색합니다.
  • should : 검색 결과 중 이 쿼리에 해당하는 도큐먼트의 점수를 높입니다.
  • filter : 쿼리가 참인 도큐먼트를 검색하지만 스코어를 계산하지 않습니다. must 보다 검색 속도가 빠르고 캐싱이 가능합니다.

사용문법

GET <인덱스명>/_search
{
  "query": {
    "bool": {
      "must": [
        { <쿼리> }, …
      ],
      "must_not": [
        { <쿼리> }, …
      ],
      "should": [
        { <쿼리> }, …
      ],
      "filter": [
        { <쿼리> }, …
      ]
    }
  }
}

정확도

Elasticsearch 와 같은 풀 텍스트 검색엔진은 검색 결과가 입력된 검색 조건과 얼마나 정확하게 일치하는 지를 계산하는 알고리즘을 가지고 있어
이 정확도를 기반으로 사용자가 가장 원하는 결과를 먼저 보여줄 수 있습니다. 이 정확한 정도를 relevancy 라고 합니다.

Score

  • _score 항목에 스코어 점수가 표시되고 이 점수가 높은 결과부터 나타납니다.
  • max_score에는 전체 결과 중에서 가장 높은 점수가 표시됩니다.

TF (Term Frequency)

도큐먼트 내에 검색된 텀(term)을 많이 포함할수록 점수가 높아지는 것

IDF (Inverse Document Frequency)

전체 인덱스에 검색한 텀을 포함하고 있는 도큐먼트 개수가 많을수록 그 텀의 자신의 점수가 감소하는 것

Field Length

도큐먼트에서 필드 길이가 큰 필드 보다는 짧은 필드에 있는 텀의 비중이 클 것입니다.

Bool : Should

검색어 중 특정 검색어가 포함된 결과에 가중치를 줘서 상위로 올리고 싶은 경우 사용

정확값 쿼리 (Exact Value Query)

검색 조건의 참 / 거짓 여부만 판별해서 결과를 가져오는 것입니다.

  • bool : filter filter는 검색에 조건은 추가하지만 스코어에는 영향을 주지 않도록 제어할 때 사용.
  • keyword 문자열과 공백, 대소문자까지 정확히 일치하는 데이터만을 결과로 리턴합니다.
    스코어를 계산하지 않기 때문에 keyword 값을 검색 할 때는 filter 구문 안에 넣도록 합니다.

범위 쿼리 (Range Query)

숫자, 날짜 형식은 range 쿼리를 이용해서 검색을 합니다.
'range : { <필드명>: { <파라메터>:<값> } }'
#price 값이 700 이상 900 미만인 데이터 검색

GET phones/_search
{
 "query": {
   "range": {
     "price": {
       "gte": 700,
       "lt": 900
     }
   }
 }
}

#date 값이 2016-01-01 ~ 2018-01-01 사이의 데이터 검색

GET phones/_search
{
  "query": {
    "range": {
      "date": {
        "gt": "31/12/2015",
        "lt": "2018",
        "format": "dd/MM/yyyy||yyyy"
      }
    }
  }
}

데이터 색인과 텍스트 분석

_analyze API

분석된 문장을 _analyze API를 이용해서 확인할 수 있습니다.
토크나이저는 tokenizer, 토큰 필터는 filter 항목의 값으로 입력하면 됩니다.
토크나이저는 하나만 적용되기 때문에 바로 입력하고, 토큰필터는 여러개를 적용할 수 있기 때문에 [ ] 안에 배열 형식으로 입력합니다.

GET _analyze
{
  "text": "The quick brown fox jumps over the lazy dog",
  "tokenizer": "whitespace",
  "filter": [
    "lowercase",
    "stop",
    "snowball"
  ]
}
  • 여러 토큰 필터를 입력 할 때는 순서가 중요하며 만약에 stop 토큰 필터를 lowercase 보다 먼저 놓게 되면 stop 토큰필터 처리시 대문자로 시작하는 "The"는 불용어로 간주되지 않아 그냥 남아있게 됩니다. 그 후에 lowercase가 적용되어 소문자 "the"가 최종 검색 텀으로 역 색인에 남아있게 됩니다.

  • whitespace 토크나이저 그리고 lowercase, stop, snowball 토큰필터들을 조합한 것이 snowball 애널라이저 입니다.
    snowball 애널라이저를 사용한 결과는 앞의 whitespace 토크나이저 그리고 lowercase, stop, snowball 토큰필터를 사용한 결과와 동일하게 나타납니다.

  • jumps, jumping을 검색하면 실제로는 jump로 바꾸어 검색이 됩니다.

키바나 기본 실습

키바나 매니지먼트 (Kibana management)

basketball 인덱스 추가

$ curl -XPUT localhost:9200/basketball   

사용될 필드들의 data type을 지정해주어 시각화에 도움을 줌. (주의: ContentType 명시)

$ curl -XPUT 'localhost:9200/basketball/record/_mappin' -d @basketball_mapping.json -H 'ContentType:application/json'   

bulk (json자료 한꺼번에 삽입)

$ curl -XPOST 'localhost:9200/_bulk' --data-binary @bulk_basketball.json   

basketball index 삭제

$ curl -XDELETE localhost:9200/basketball   

키바나 디스커버 (Kibana discover)

Discover 페이지: 특정 인덱스의 데이터를 확인할 수 있음.

  • Discover페이지 discover1

  • 더하기 모양 버튼을 클릭하여 해당 데이터와 일치하는 것들만 시각화하도록 필터를 추가할 수 있음. discover2

  • 상단에서 필터목록을 볼 수 있음.
    discover3

  • 토글 버튼을 눌러 특정 데이터에 대한 정보들만 확인할 수 있음.
    discover4

키바나 비주얼라이즈 (Kibana Visualize)

  • Line Chart
    Linechart

  • Metric
    Metric

  • Dashboard

키바나 실습 코로나 대시보드

covid-4

  • 색인시 데이터 확장을 위한 enrich pipeline 생성 및 확장
    covid-5
  • Enrich Ingest Pipeline 생성
    covid-6
  • Enrich 프로세서를 적용해서 인덱스 값 업데이트
    covid-7
    covid-8
    covid-9
  • Index Pattern 생성
    covid-10
  • Discover에서 데이터 확인
    covid-11
  • Area Chart
    covid-12
  • Line Chart
    covid-13
  • Dashboard (Maps와 Metric도 추가)
    covid-14

컨테이너 Study

OCI와 CRI

OCI (OPEN CONTAINER INITIATIVE)

최근에는 컴퓨터 전체를 가상화하는 가상머신에 비해 오버헤드가 적은 컨테이너 기술이 주목 받고 있습니다.
가상머신과 마찬가지로 컨테이너도 컨테이너 내부에 저장되는 소프트웨어를 담고 있는 파일들을 패키징할 수 있는 포맷이 필요한데,
가상머신의 OVF에 해당하는 표준이 OCI (Open Container Initiative) 입니다.

CRI(Container Runtime Interface)

쿠버네티스는 CRI를 만들어 명확하게 정의된 추상화 계층을 제공함으로써 개발자가 컨테이너 런타임 구축에 집중할 수 있게 하였습니다.
초기 쿠버네티스는 컨테이너를 실행하기 위해 도커를 사용하였는데 이는 쿠버네티스 클러스터 워커 노드의 에이전트인 Kubelet 소스코드 내부에 통합되어 있었습니다. 이처럼 통합된 프로세스는 Kubelet에 대한 깊은 이해를 필요로 하였고 쿠버네티스 커뮤니티에 상당한 유지보수 오버헤드를 발생시켰습니다. 이러한 문제를 해결하기 위해 쿠버네티스는 CRI를 만들어 명확하게 정의된 추상화 계층을 제공함으로써 개발자가 컨테이너 런타임 구축에 집중할 수 있게 하였습니다.

저수준과 고수준 컨테이너 런타임

  • 저수준 컨테이너 런타임
    namespace와 cgroup을 설정한 다음 해당 namespace 및 cgroup 내에서 명령 실행합니다.
    OCI를 준수하는 저수준 컨테이너 런타임에는 runC가 있습니다.
    저수준 컨테이너 런타임은 컨테이너를 실제 실행하는 역할을 하지만 이미지로부터 컨테이너를 실행하려면 이미지와 관련된 API같은 기능이 필요합니다. 이는 고수준 컨테이너 런타임에서 제공합니다.

  • 고수준 컨테이너 런타임
    원격 애플리케이션이 컨테이너를 논리적으로 실행하고 모니터링 하는데 사용할 수 있는 데몬 및 API를 제공합니다.
    컨테이너를 실행하기 위해 저수준 런타임 위에 배치합니다.
    이처럼 컨테이너를 실행하려면 저수준 및 고수준 컨테이너 런타임이 필요하기 때문에 OCI 런타임과 함께 도커가 그 역할을 했습니다.
    도커는 docker-containerd라는 고수준 컨테이너 런타임을 제공합니다.

CRI-O(Container Runtime Interface - Open Container Initiative)

CRI와 OCI에서 유래된 프로젝트로 컨테이너 런타임 및 이미지가 OCI와 호환되는 것에 중점을 두고 있다.
CRI 표준 컴포넌트를 최소한의 런타임으로 구현하며 쿠버네티스에서 모든 OCI 호환 런타임 및 컨테이너 이미지를 지원합니다.
CRI-O는 컨테이너 실행목적이기 때문에 도커가 제공하는 컨테이너 생성 및 이미지 빌드와 같은 기능은 제공하지 않는다.

컨테이너와 VMs의 차이 아키텍처 접근 방식

VMs (Hypervisor기반 가상화)

VMARCH
VM은 "hypervisor"를 사용하여 물리적 시스템 위에서 실행됩니다.
hypervisor 자체는 "호스트 머신"이라고하는 물리적 컴퓨터에서 실행됩니다.
Hypervisor기반 Solution의 주요 장점은 여러분이 전체 범위 OS를 운영을 가능하게 한다는 것입니다.

Container

ContainerARCH
하드웨어 가상화를 제공하는 VM과 달리 컨테이너는 "사용자 공간"을 추상화하여 운영 체제 수준의 가상화를 제공합니다.
"The one big difference between containers and VMs is that containers share the host system’s kernel with other containers."
컨테이너와 VM의 큰 차이점은 컨테이너가 호스트 시스템의 커널을 다른 컨테이너와 공유한다는 것입니다.

VMs의 경우 컨테이너를 사용하는 것만큼 경량화할 수는 없습니다.
리소스와 기능이 제한되어 있을 때는 집중적으로 배포할 수 있는 경량화된 애플리케이션이 필요합니다.
Linux 컨테이너는 운영 체제에서 기본으로 실행되고 모든 컨테이너 전체에서 운영 체제를 공유하므로 애플리케이션과 서비스를 가볍게 유지할 수 있으며 빠른 속도로 동시에 실행할 수 있습니다.

LXC(Linux 컨테이너) 프로젝트

툴, 템플릿, 라이브러리, 언어 바인딩 세트를 제공하는 오픈소스 컨테이너 플랫폼입니다.
LXC에는 컨테이너를 시작할 때 사용자 환경을 개선하는 단순한 커맨드라인 인터페이스가 있습니다.
LXC는 대부분의 Linux 기반 시스템에 설치할 수 있는 운영 체제 수준의 가상화 환경을 제공합니다.
사용 중인 Linux 배포에서 패키지 리포지토리를 통해 제공할 수도 있습니다.

도커 실습

기본적인 명령어

  • 우분투 최신버전 이미지 다운
$ docker pull ubuntu:latest
  • 간단하게 도커 이미지 목록을 확인
$ docker images
  • 도커 이미지를 삭제
$ docker rmi [OPTIONS] IMAGE [IMAGE...]
  • 실행중인 컨테이너 목록을 확인 (-a : 중지된 컨테이너도 확인)
$ docker ps
  • 우분투 이미지 도커 실행
    키보드 입력을 위해 -it(== ‐i ‐t)옵션을 줍니다.
    --rm옵션이 없다면 컨테이너가 종료되더라도 삭제되지 않고 남아있습니다.
$ docker run --rm -it ubuntu:latest bash
  • 실행중인 컨테이너를 중지
$ docker stop [OPTIONS] CONTAINER [CONTAINER...]
  • 종료된 컨테이너를 완전히 제거
$ docker rm [OPTIONS] CONTAINER [CONTAINER...]
  • 모든 컨테이너를 제거
$ docker rm $(docker ps -qa)
  • 이미지 제거
docker rmi <저장소 이름>/<이미지 이름, ID>:<태그>
  • 컨테이너 로그 확인 (-f : 실시간으로 로그 확인)
$ docker logs
  • Busybox(매우 작은 이미지)
$ docker run ---rm it busybox:latest sh
  • 도커 컨테이너끼리 통신을 할 수 있는 가상 네트워크를 생성
$ docker network create [OPTIONS] NETWORK
  • example > app-network라는 이름으로 wordpress와 mysql이 통신할 네트워크 생성
$ docker network create app-network
  • 기존에 생성된 컨테이너에 네트워크를 추가
$ docker network connect [OPTIONS] NETWORK CONTAINER
  • example > 만들어 놓은 mysql 에 네트워크를 추가
$ docker network connect app-network mysql
  • example > 워드프레스를 app‐network 에 속하게 생성하고 IP 가 아닌 mysql 컨테이너 ip로 바로 접근
    같은 네트워크에 속해 있으면 상대 컨테이너의 이름을 DNS 로 조회하여 바로 접근 할 수 있습니다.
    하나의 컨테이너는 여러개의 network 에 속할 수 있으며 Docker Swarm 같은 클러스터에서 편리하게 사용할 수 있습니다.
$ docker run -d -p 8080:80 \
 --network=app-network \
 -e WORDPRESS_DB_HOST=mysql \
 -e WORDPRESS_DB_NAME=wp \
 -e WORDPRESS_DB_USER=wp \
 -e WORDPRESS_DB_PASSWORD=wp \
 wordpress
  • Mysql 도커로 실행
$ docker run -d -p 3306:3306 \
-e MYSQL_ALLOW_EMPTY_PASSWORD=true \
--name mysql \
mysql:5.7
  • Mysql에 접속하여 database 만들기
$ docker exec -it mysql mysql
create database wp CHARACTER SET utf8;
grant all privileges on wp.* to wp@'%' identified by 'wp';
flush privileges;
quit
  • exec 명령어와 run 명령어의 차이
    exec 명령어는 run 명령어와 달리 실행중인 도커 컨테이너에 접속할 때 사용하며
    일반적으로 컨테이너 안에 ssh server 등을 설치하지 않고 exec 명령어로 접속합니다.

  • docker-compose 설치

$ sudo curl -L "https://github.com/docker/compose/releases/download/1.27.4/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
$ sudo chmod  x /usr/local/bin/docker-compose
  • docker-compose.yml 생성(db와 wordpress서비스를 하나의 파일로 묶음)
    "volumes: " -> 볼륨 마운트를 하여 컨테이너가 사라지더라도 데이터가 유실되지 않도록 함.
version: '2'

services:
   db:
     image: mysql:5.7
     volumes:
       - ./mysql:/var/lib/mysql
     restart: always
     environment:
       MYSQL_ROOT_PASSWORD: wordpress
       MYSQL_DATABASE: wordpress
       MYSQL_USER: wordpress
       MYSQL_PASSWORD: wordpress
   wordpress:
     image: wordpress:latest
     volumes:
       - ./wp:/var/www/html
     ports:
       - "8000:80"
     restart: always
     environment:
       WORDPRESS_DB_HOST: db:3306
       WORDPRESS_DB_PASSWORD: wordpress
  • docker compose를 이용하여 위 파일로 작성한 것과 같이 mysql, wordpress 실행
$ docker-compose up -d
  • docker compose로 컨테이너를 종료하고 삭제
$ docker-compose down

이미지 생성

  • 커스텀 이미지를 만들기까지 상태 변화
    docker_custom_image

실습 : git을 추가적으로 설치한 환경을 이미지로 만들기(컨테이너 환경을 저장)

  • 컨테이너를 실행시키고 git을 설치
$ docker run -it ubuntu:latest --name git /bin/bash
# apt update
# apt install git
  • 컨테이너 차이점 비교(변경사항 확인 가능)
$ docker diff CONTAINER_ID
  • ubuntu:git 이름으로 이미지 생성
$ docker commit git ubuntu:git
  • 이미지 생성됐는지 확인
$ docker images | grep ubuntu

결과:

ubuntu | git | f98472c1d8aa | 6 seconds ago | 252.2 MB
..

Dockerfile을 이용한 이미지 생성 실습

  • Dockerfile이란?
    이미지 생성 과정을 기술한 Docker전용 DSL
  • Dockerfile 생성
$ vim Dockerfile

다음과 같이 작성

# 어떤 이미지를 사용하여 도커 이미지를 사용할지 결정(베이스 이미지 지정)   
FROM ubuntu:16.04   
# RUN은 실행할 명령어를 의미
RUN apt update
RUN apt install -y
  • 현재 경로에 있는 도커파일을 이용하여 ubuntu:git 이름으로 이미지 생성
$ docker build -t ubuntu:git2 ./
  • Dockerfile로 생성한 이미지 실행해보기
$ docker run --rm -it ubuntu:git2 bash

Dockerfile 명령어

  • FROM <이미지이름>
    베이스 이미지 지정
  • ADD <추가할 파일> <추가될 경로>
    파일 추가
ADD data.txt /temp/data.txt
  • RUN <명령어>
    명령어 실행
  • WORKDIR <경로>
    작업 디렉터리 변경(cd <경로>와 비슷한 느낌)
  • ENV <환경변수> <값>
    환경변수 기본값 지정
  • EXPOSE <포트>
    컨테이너로 실행 시 노출시킬 포트
  • CMD <명령어>
    이미지의 기본 실행 명령어 지정
    <명령어>가 비어있을 때는 bash를 기본으로 지정

도커허브 push pull

도커허브 주소
https://hub.docker.com/

  • tag명령어로 이미지에 태그(저장소 이름 : gjlee0802)
$ docker tag mydockerimage:latest gjlee0802/mydockerimage:latest
  • Dockerhub에 로그인
$ docker login --username=gjlee0802 [email protected]
Password:
WARNING: login credentials saved in /Users/devsun/.docker/config.json
Login Succeeded
  • 도커허브에 이미지 push
$ docker push gjlee0802/mydockerimage
  • 도커허브로부터 이미지 pull
$ docker pull gjlee0802/mydockerimage

Kafka

Producer와 Consumer

kafka_features
각종 데이터를 담는 topic이라는 개념이 있는데, 쉽게 생각해서 큐(queue) 라고 생각하면 됩니다.
큐에 데이터를 넣는 역할은 Producer가 하고, 큐에서 데이터를 가져오는 역할은 Consumer가 합니다.
Producer와 Consumer은 라이브러리로 돼있어서 어플리케이션에서 구현이 가능합니다.
오가는 데이터 포맷은 거의 제한이 없습니다.(json, tsv, avro etc... 여러 포맷을 지원)

Producer 역할

  • Topic에 해당하는 메시지를 생성
  • 특정 Topic으로 데이터를 publish
  • 처리 실패/재시도

Consumer 역할

  • Topic의 partition으로부터 데이터 polling(가져오기)
  • Partition offset(파티션에 있는 데이터의 번호) 위치 기록(commit) -> 어느 지점까지 데이터를 읽었는지 확인하여 고가용성 보장
  • Consumer group을 통해 병렬처리(파티션 개수에 따라 컨슈머를 여러개 배치) -> 주의점: Consumer 개수 <= partition개수

참고: https://www.youtube.com/watch?v=rBVCvv9skT4&list=PL3Re5Ri5rZmkY46j6WcJXQYRlDRZSUQ1j&index=5
https://jhleed.tistory.com/179

Kafka Topic

Topic은 파일시스템 폴더와 유사한 구조를 가집니다.
Topic의 이름은 목적에 따라 어떤 데이터를 담는지 명확하게 명시하여 편리하게 관리할 수 있습니다.

파티션

하나의 토픽은 여러개의 파티션으로 구성될 수 있으며 첫번째 파티션 번호는 0입니다. 하나의 파티션은 큐와 같이 데이터가 끝에서부터 차곡차곡 쌓이게 됩니다.
Kafka Consumer은 끝에서부터(가장오래된 순으로) 데이터를 가져오게 됩니다.
Consumer가 데이터를 가져간다고해서 데이터가 사라지는 것이 아니라 파티션에 그대로 남습니다.(또 다른 Consumer가 연결되어 가져갈 수 있도록 함.)
kafka_features

  • 파티션을 늘리는 이유: Consumer 개수를 늘려 데이터 처리를 분산시킬 수 있습니다.
  • 파티션의 데이터(record)를 삭제하는 타이밍: 최대 record 보존 시간, 최대 record 보존 크기로 결정
  • Kafka는 key를 특정한 해시로 변형시켜 파티션과 1대1 매칭을 시킵니다.
    파티션에는 동일한 key의 value만 쌓이게 됩니다.
    key를 사용할 경우, 키와 파티션 매칭이 깨질 수 있기 때문에 파티션 개수에 유의하여 파티션을 생성합니다.

Broker, Replication, ISR

Broker

Kafka Brocker은 Kafka가 설치되어 있는 서버 단위를 말합니다.
보통 3개 이상의 broker 이용을 권장합니다.

Replication

서버에 장애가 생겼을 때, 복구 할 수 있는 고가용성을 보장합니다.(Elastic Search에서 공부한 replica 개념과 매우 유사)
replication = Leader partition(원본 파티션) Follower partition(복제 파티션)
replication의 개수는 제한됩니다.(replication 개수 <= Kafka broker 개수)

ISR - In Sync Replica

각각의 replication group이 바로 ISR입니다.
ISR1

  • leader가 down 되면서 follower가 new leader가 되는 과정
    ISR2
    ISR3
    • topic01의 경우, ISR 내 follower는 누구라도 leader가 될 수 있는 조건을 충족하기 때문에 follower -> new leader
      이때, 일시적으로 follower가 leader가 되는 과정에서 read/write의 timeout이 발생할 수 있겠지만, retry가 일어나면 new leader와 read/write가 가능하기 때문에 장애 상황은 아닙니다.
    • topic02의 경우, down 된 follower는 leader가 될 자격이 없기 때문에 ISR에서 제외가 되면서 ISR에는 leader 하나와 follower 하나만 포함되게 됩니다.
      topic01과 달리 topic02의 leader는 변하지 않았기 때문에 아무런 특이사항 없이 read/write가 계속 일어납니다.

참고: https://www.popit.kr/kafka-운영자가-말하는-topic-replication/

Lag

Producer가 데이터를 넣어주는 속도가 Consumer가 데이터를 가져가는 속도보다 빠른 경우
Producer가 데이터를 넣은 오프셋과 Consumer가 데이터를 가져간 오프셋 간에 차이가 발생합니다.
두 오프셋 간의 차이가 Consumer Lag 입니다.
파티션이 하나가 아니라 여러개라면 Lag도 여러개가 존재할 수 있습니다.
여러개의 Lag중에 가장 높은 숫자의 Lagrecords-lag-max라고 합니다.
consumer_lag

Burrow

Consumer Lag을 모니터링하기 위해 사용합니다.

Burrow의 특징

  • 멀티 카프카 클러스터 지원
  • Sliding window를 통한 Consumer의 status(ERROR/WARING/OK) 확인
  • HTTP api 제공(다양한 추가 생태계 구축 가능)

Zookeeper

주키퍼란?

주키퍼는(Zookeeper)는 분산 코디네이션 서비스를 제공하는 오픈소스 프로젝트입니다.
주키퍼는 znode로 이루어진 분산 데이터 모델을 지원하는 시스템이라고 해도 과언이 아닙니다.
이 데이터 모델은 리눅스(linux) 파일시스템과 유사한 시스템을 제공하고 이것이 주키퍼의 핵심입니다.
주키퍼에 채택된 아키텍처와 기법들은 이 데이터 모델을 안정적으로 제공하고자 하기 위함입니다.
이 시스템을 통해 주키퍼는 글로벌락, 클러스터 정보, Leader 선출 등을 구현해야하는 곳에 활용할 수 있습니다.

주키퍼 사용용도

주키퍼는 클러스터에서 구성 서버들끼리 공유되는 데이터를 유지하거나 어떤 연산을 조율하기 위해 주로 사용합니다.
주키퍼는 카프카의 노드 관리를 해주고, 토픽의 offset 정보등을 저장하기 위해 필요합니다.
클러스터 내의 broker에 대한 분산 처리는 Apache ZooKeeper가 담당합니다.

  • 설정 관리(Configuration management) : 클러스터의 설정 정보를 최신으로 유지하기 위한 조율 시스템으로 사용됩니다.

  • 클러스터 관리(Cluster management) : 클러스터의 서버가 추가되거나 제외될 때 그 정보를 클러스터 안 서버들이 공유하는 데 사용됩니다.

  • 리더 채택(Leader selection) : 다중 어플리케이션 중에서 어떤 노드를 리더로 선출할 지를 정하는 로직을 만드는 데 사용됩니다. 주로 복제된 여러 노드 중 연산이 이루어지는 하나의 노드를 택하는 데 사용됩니다.

  • 락, 동기화 서비스(Locking and synchronization service) : 클러스터에 쓰기 연산이 빈번할 경우 경쟁상태에 들어갈 가능성이 커집니다. 이는 데이터 불일치를 발생시킵니다. 이 때, 클러스터 전체를 대상을 동기화해( 락을 검 ) 경쟁상태에 들어갈 경우를 사전에 방지합니다.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages