1. Spooling Directory Source: WAS의 Log 파일 위치의 디렉토리를 Spooling하여 파일이 만들어졌을때를 모니터링하여 수집

2. Thrift Source: WAS에서 로그를 파일로 별도로 남기지 않고, Thrift 통신으로 직접 Agent에 발송하여 로그 수집

3. Exec Source: WAS의 로그파일을 tailing하여 로그 수집

4. Avro Source: 각 WAS에서 수집된 로그를 Avro 통신을 통해 로그를 중간 집적서버로 전송, Avro Source를 통해 들어온 이벤트를 Channel 

5. Selector Control: selector를 통해 각각의 Channel로 전송

6. Avro Sink: 또 다른 Agent 서버로 이벤트를 Avro 통신을 통해 전송하여, 해당 Agent는 Kafka Sink를 통해 분산 메시징 큐인 Kafka로 저장하여, 필요한 Application에서 메시지 가져갈 수 있게 준비함. 일반적으로 실시간 처리를 하기 위해 많이 활용된다.

7. Elasticsearch Sink: 오픈소스 검색엔진인 Elastic-Search 로 Sink하여 Kibana와 같은 로그 통계,모니터링을 통해 서비스 가능

8. Hadoop Sink: 대용량 분산 저장을 위해 HDFS(Hadoop Distributed File System))로 저장하여, Hive,Pig,R,Mahout 등으로 배치 분석,기계어 학습 등에 활용


'빅데이터 > 처리' 카테고리의 다른 글

[Storm] Grouping 4가지  (0) 2015.04.26
Kakfa란?  (0) 2015.04.26
Kafka or Flume? 고민될때..  (0) 2015.04.26
[Flume] 컴포넌트들  (0) 2015.04.26
블로그 이미지

JOKERGT

타고난 능력이란, 자연계의 초목과 같아 항상 탐구로써 가지를 쳐줘야 한다. https://www.linkedin.com/in/datajoker1

,