Monitoring 설치 가이드

1. 문서 개요

1.1. 목적

본 문서(설치가이드)는 파스타를 4.0 PaaS-TA 모니터링을 설치하는데 있다.

1.2. 범위

본 문서(설치가이드)는 파스타를 4.0 PaaS-TA 모니터링을 설치하는데 있다. 모니터링중 IaaS-PaaS 통합 모니터링은 별도 통합 모니터링문서를 제공하며 본문서는 PaaS 모니터링 설치 가이드를 제공함에 있다.

1.3. 참고자료

본 문서는 Cloud Foundry의 BOSH Document와 Cloud Foundry Document를 참고로 작성하였다.
BOSH Document: http://bosh.io
Cloud Foundry Document: https://docs.cloudfoundry.org/

2. PaaS-TA Monitoring Architecture

2.1. PaaS-TA Monitoring Architecture

PaaS-TA 서비스 모니터링 운영환경에서는 크게 Backend 환경에서 실행되는 Batch 프로세스 영역과 Frontend 환경에서 실행되는 Monitoring 시스템 영역으로 나누어진다. Batch 프로세스는 PaaS-TA Portal 서비스에서 등록한 임계치 정보와 AutoScale 대상 정보를 기준으로 주기적으로 시스템 metrics 정보를 조회 및 분석하여, 임계치를 초과한 서비스 발견시 관리자에게 Alarm을 전송하며, 임계치를 초과한 컨테이너 리스트 중에서 AutoScale 대상의 컨테이너 존재시 AutoScale Server 서비스에 관련 정보를 전송하여, 자동으로 AutoScaling 기능이 수행되도록 처리한다. Monitoring 시스템 은 TSDB(InfluxDB)로부터 시스템 환경 정보 데이터를 조회하고, Lucene(Elasticsearch)을 통해 로그 정보를 조회한다. 조회된 정보는 PaaS-TA Monitoring 시스템의 현재 자원 사용 현황을 조회하고, Kibana를 통해 로그 정보를 조회할 수 있도록 한다. Monitoring Portal은 관리자 화면으로 알람이 발생된 이벤트 현황 정보를 조회하고, 컨테이너 배치 현황과 장애 발생 서비스에 대한 통계 정보를 조회할 수 있으며, 이벤트 관련 처리정보를 이력관리할 수 있는 화면을 제공한다

2.2. PaaS-TA 자원정보 수집 Architecture

PaaS-TA 서비스는 내부적으로 메트릭스 정보를 수집 및 전달하는 Metric Agent와 로그 정보를 수집 및 전달하는 syslog 모듈을 제공한다. Metric Agent는 시스템 관련 메트릭스를 수집하여 Influx DB에 정보를 저장한다. syslog는 PaaS-TA 서비스를 Deploy 하기 위한 manfiest 파일의 설정으로도 로그 정보를 ELK 서비스에 전달할 수 있으며, 로그 정보를 전달하기 위해서는 relp 프로토콜(reliable event logging protocol)을 사용한다.

3. PaaS-TA Monitoring 설치

3.1. Pre-requsite

  1. 1.
    PaaS-Ta 4.0 Monitoring을 설치 하기 위해서는 bosh 설치과정에서 언급한 것 처럼 관련 deployment, release , stemcell을 파스타 사이트에서 다운로드 받아 정해진 경로에 복사 해야 한다.
  2. 2.
    PaaS-TA 4.0이 설치되어 있어야 하며 monitoring Agent가 설치되어 있어야 한다.
  3. 3.
    bosh login이 되어 있어야 한다.

3.2. PaaS-TA 4.0 모니터링 설치 파일 다운로드

파스타 다운로드 URL에서 [PaaS-TA 설치 릴리즈] 파일을 다운로드 받아 ~/workspace/paasta-4.0/release 이하 디렉토리에 압축을 푼다. 압출을 풀면 아래 그림과 같이 ~/workspace/paasta-4.0/release/monitoring 이하 디렉토리가 생성되며 이하에 릴리즈 파일(tgz)이 존재한다.

3.3. PaaS-Ta Monitoring 설치환경

~/workspace/paasta-4.0/deployment/service-deployment 이하 디렉토리에는 logsearch, pasta-monitoring 디렉토리가 존재한다. Logsearch는 logAgent에서 발생한 Log정보를 수집하여 저장하는 Deployment이다. Pasta-monitoring은 PaaS-TA VM에서 발생한 Metric정보를 수집하여 모니터링을 실행한다.
1
$ cd ~/workspace/paasta-4.0/deployment/service-deployment
Copied!

3.4. Logsearch 설치

PaaS-TA VM Log수집을 위해서는 logsearch가 설치되어야 한다.
1
$ cd ~/workspace/paasta-4.0/deployment/service-deployment/logsearch
Copied!

3.4.1. logsearch-deployment.yml

logsearch-deployment.yml에는 ls-router, cluster-monitor, elasticsearch_data, elastic_master, kibana, mainternance 의 명세가 정의되어 있다.
1
---
2
name: logsearch
3
update:
4
canaries: 3
5
canary_watch_time: 30000-1200000
6
max_in_flight: 1
7
serial: false
8
update_watch_time: 5000-1200000
9
instance_groups:
10
11
- name: elasticsearch_master
12
azs:
13
- z5
14
instances: 1
15
persistent_disk_type: 10GB
16
vm_type: medium
17
stemcell: default
18
update:
19
max_in_flight: 1
20
serial: true
21
networks:
22
- name: default
23
jobs:
24
- name: elasticsearch
25
release: logsearch
26
consumes:
27
elasticsearch: {from: elasticsearch_master}
28
provides:
29
elasticsearch: {as: elasticsearch_master}
30
properties:
31
elasticsearch:
32
node:
33
allow_master: true
34
- name: syslog_forwarder
35
release: logsearch
36
consumes:
37
syslog_forwarder: {from: cluster_monitor}
38
properties:
39
syslog_forwarder:
40
config:
41
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stdout.log
42
service: elasticsearch
43
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stderr.log
44
service: elasticsearch
45
- file: /var/vcap/sys/log/cerebro/cerebro.stdout.log
46
service: cerebro
47
- file: /var/vcap/sys/log/cerebro/cerebro.stderr.log
48
service: cerebro
49
- name: cluster_monitor
50
azs:
51
- z6
52
instances: 1
53
persistent_disk_type: 10GB
54
vm_type: medium
55
stemcell: default
56
update:
57
max_in_flight: 1
58
serial: true
59
networks:
60
- name: default
61
jobs:
62
- name: elasticsearch
63
release: logsearch
64
consumes:
65
elasticsearch: {from: elasticsearch_cluster_monitor}
66
provides:
67
elasticsearch: {as: elasticsearch_cluster_monitor}
68
properties:
69
elasticsearch:
70
cluster_name: monitor
71
node:
72
allow_data: true
73
allow_master: true
74
- name: elasticsearch_config
75
release: logsearch
76
consumes:
77
elasticsearch: {from: elasticsearch_cluster_monitor}
78
properties:
79
elasticsearch_config:
80
templates:
81
- shards-and-replicas: '{ "template" : "logstash-*", "order" : 100, "settings"
82
: { "number_of_shards" : 1, "number_of_replicas" : 0 } }'
83
- index-settings: /var/vcap/jobs/elasticsearch_config/index-templates/index-settings.json
84
- index-mappings: /var/vcap/jobs/elasticsearch_config/index-templates/index-mappings.json
85
- name: ingestor_syslog
86
release: logsearch
87
provides:
88
syslog_forwarder: {as: cluster_monitor}
89
properties:
90
logstash_parser:
91
filters:
92
- monitor: /var/vcap/packages/logsearch-config/logstash-filters-monitor.conf
93
- name: curator
94
release: logsearch
95
consumes:
96
elasticsearch: {from: elasticsearch_cluster_monitor}
97
properties:
98
curator:
99
purge_logs:
100
retention_period: 7
101
- name: kibana
102
release: logsearch
103
consumes:
104
elasticsearch: {from: elasticsearch_cluster_monitor}
105
properties:
106
kibana:
107
memory_limit: 30
108
wait_for_templates: [shards-and-replicas]
109
- name: maintenance
110
azs:
111
- z5
112
- z6
113
instances: 1
114
vm_type: medium
115
stemcell: default
116
update:
117
serial: true
118
networks:
119
- name: default
120
jobs:
121
- name: elasticsearch_config
122
release: logsearch
123
consumes:
124
elasticsearch: {from: elasticsearch_master}
125
properties:
126
elasticsearch_config:
127
index_prefix: logs-
128
templates:
129
- shards-and-replicas: /var/vcap/jobs/elasticsearch_config/index-templates/shards-and-replicas.json
130
- index-settings: /var/vcap/jobs/elasticsearch_config/index-templates/index-settings.json
131
- index-mappings: /var/vcap/jobs/elasticsearch_config/index-templates/index-mappings.json
132
- index-mappings-lfc: /var/vcap/jobs/elasticsearch-config-lfc/index-mappings.json
133
- index-mappings-app-lfc: /var/vcap/jobs/elasticsearch-config-lfc/index-mappings-app.json
134
- index-mappings-platform-lfc: /var/vcap/jobs/elasticsearch-config-lfc/index-mappings-platform.json
135
- name: curator
136
release: logsearch
137
consumes:
138
elasticsearch: {from: elasticsearch_master}
139
- name: elasticsearch-config-lfc
140
release: logsearch-for-cloudfoundry
141
- name: syslog_forwarder
142
release: logsearch
143
consumes:
144
syslog_forwarder: {from: cluster_monitor}
145
properties:
146
syslog_forwarder:
147
config:
148
- file: /var/vcap/sys/log/curator/curator.log
149
service: curator
150
- name: elasticsearch_data
151
azs:
152
- z5
153
- z6
154
instances: 2
155
persistent_disk_type: 30GB
156
vm_type: medium
157
stemcell: default
158
update:
159
max_in_flight: 1
160
serial: true
161
networks:
162
- name: default
163
jobs:
164
- name: elasticsearch
165
release: logsearch
166
consumes:
167
elasticsearch: {from: elasticsearch_master}
168
properties:
169
elasticsearch:
170
node:
171
allow_data: true
172
- name: syslog_forwarder
173
release: logsearch
174
consumes:
175
syslog_forwarder: {from: cluster_monitor}
176
properties:
177
syslog_forwarder:
178
config:
179
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stdout.log
180
service: elasticsearch
181
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stderr.log
182
service: elasticsearch
183
- file: /var/vcap/sys/log/cerebro/cerebro.stdout.log
184
service: cerebro
185
- file: /var/vcap/sys/log/cerebro/cerebro.stderr.log
186
service: cerebro
187
- name: kibana
188
azs:
189
- z5
190
instances: 1
191
persistent_disk_type: 5GB
192
vm_type: medium
193
stemcell: default
194
networks:
195
- name: default
196
197
jobs:
198
- name: elasticsearch
199
release: logsearch
200
consumes:
201
elasticsearch: {from: elasticsearch_master}
202
- name: redis
203
release: logsearch-for-cloudfoundry
204
provides:
205
redis: {as: redis_link}
206
- name: kibana
207
release: logsearch
208
provides:
209
kibana: {as: kibana_link}
210
consumes:
211
elasticsearch: {from: elasticsearch_master}
212
properties:
213
kibana:
214
health:
215
timeout: 300
216
env:
217
- NODE_ENV: production
218
- name: syslog_forwarder
219
release: logsearch
220
consumes:
221
syslog_forwarder: {from: cluster_monitor}
222
properties:
223
syslog_forwarder:
224
config:
225
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stdout.log
226
service: elasticsearch
227
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stderr.log
228
service: elasticsearch
229
- file: /var/vcap/sys/log/cerebro/cerebro.stdout.log
230
service: cerebro
231
- file: /var/vcap/sys/log/cerebro/cerebro.stderr.log
232
service: cerebro
233
- name: ingestor
234
azs:
235
- z4
236
- z6
237
instances: 2
238
persistent_disk_type: 10GB
239
vm_type: medium
240
stemcell: default
241
networks:
242
- name: default
243
jobs:
244
- name: elasticsearch
245
release: logsearch
246
consumes:
247
elasticsearch: {from: elasticsearch_master}
248
- name: parser-config-lfc
249
release: logsearch-for-cloudfoundry
250
- name: ingestor_syslog
251
release: logsearch
252
provides:
253
ingestor: {as: ingestor_link}
254
properties:
255
logstash_parser:
256
filters:
257
- logsearch-for-cf: /var/vcap/packages/logsearch-config-logstash-filters/logstash-filters-default.conf
258
elasticsearch:
259
index: logs-%{[@metadata][index]}-%{+YYYY.MM.dd}
260
deployment_dictionary:
261
- /var/vcap/packages/logsearch-config/deployment_lookup.yml
262
- /var/vcap/jobs/parser-config-lfc/config/deployment_lookup.yml
263
- name: syslog_forwarder
264
release: logsearch
265
consumes:
266
syslog_forwarder: {from: cluster_monitor}
267
properties:
268
syslog_forwarder:
269
config:
270
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stdout.log
271
service: elasticsearch
272
- file: /var/vcap/sys/log/elasticsearch/elasticsearch.stderr.log
273
service: elasticsearch
274
- file: /var/vcap/sys/log/ingestor_syslog/ingestor_syslog.stdout.log
275
service: ingestor
276
- file: /var/vcap/sys/log/ingestor_syslog/ingestor_syslog.stderr.log
277
service: ingestor
278
- name: ls-router
279
azs:
280
- z4
281
instances: 1
282
vm_type: small
283
stemcell: default
284
networks:
285
- name: default
286
static_ips:
287
- ((router_ip))
288
# default: [dns, gateway]
289
# - name: vip
290
# static_ips: [34.196.20.46]
291
jobs:
292
- name: haproxy
293
release: logsearch
294
consumes:
295
elasticsearch: {from: elasticsearch_master}
296
ingestor: {from: ingestor_link}
297
kibana: {from: kibana_link}
298
syslog_forwarder: {from: cluster_monitor}
299
properties:
300
inbound_port:
301
https: 4443
302
- name: route_registrar
303
release: logsearch-for-cloudfoundry
304
consumes:
305
nats: {from: nats, deployment: paasta}
306
properties:
307
route_registrar:
308
routes:
309
- name: kibana
310
port: 80
311
registration_interval: 60s
312
uris:
313
- "logs.((system_domain))"
314
- name: elastic
315
port: 9200
316
registration_interval: 60s
317
uris:
318
- "elastic.((system_domain))"
319
320
321
variables:
322
- name: kibana_oauth2_client_secret
323
type: password
324
- name: firehose_client_secret
325
type: password
326
327
releases:
328
- name: logsearch
329
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/monitoring/logsearch-boshrelease-209.0.1.tgz
330
version: "latest"
331
- name: logsearch-for-cloudfoundry
332
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/monitoring/logsearch-for-cloudfoundry-207.0.1.tgz
333
version: "latest"
334
stemcells:
335
- alias: default
336
os: ubuntu-xenial
337
version: "latest"
Copied!

3.4.2. deploy.sh

deploy.sh의 –v 의 inception_os_user_name, router_ip, system_domain 및 director_name을 시스템 상황에 맞게 설정한다. system_domain은 paasta 설치시 설정했던 system_domain을 입력하면 된다. router_ip는 ls-router가 설치된 azs에서 정의한 cider값의 적당한 IP를 지정한다.
1
Bosh –e {director_name} -d logsearch deploy logsearch-deployment.yml \
2
-v inception_os_user_name=ubuntu \ # home user명 (release file path와 연관성 있음. /home/ubuntu/paasta-4.0 이하 release 파일들의 경로 설정)
3
-v router_ip=10.20.50.34 \ # 배포한 ls-router VM의 private ip
4
-v system_domain={system_domain} #PaaS-TA 설치시 설정한 System Domain
Copied!
deploy.sh을 실행하여 logsearch를 설치 한다.
1
$ cd ~/workspace/paasta-4.0/deployment/service-deployment/logsearch
2
$ deploy.sh
Copied!
설치 완료후 logsearch가 설치 완료 되었음을 확인한다.
1
$ bosh –e {director_name} vms
Copied!

3.5. PaaS-TA Monitoring 설치

PaaS 모니터링을 위해서 paasta-monitoring가 설치되어야 한다.
1
$ cd ~/workspace/paasta-4.0/deployment/service-deployment/paasta-monitoring
Copied!

3.5.1. paasta-monitoring.yml

paasta-monitoring.yml에는 redis, influxdb(metric_db), mariadb, monitoring-web, monitoring-batch에 대한 명세가 있다.
1
---
2
name: paasta-monitoring # 서비스 배포이름(필수) bosh deployments 로 확인 가능한 이름
3
4
addons:
5
- name: bpm
6
jobs:
7
- name: bpm
8
release: bpm
9
10
stemcells:
11
- alias: default
12
os: ubuntu-xenial
13
version: latest
14
15
releases:
16
- name: paasta-monitoring # 서비스 릴리즈 이름(필수) bosh releases로 확인 가능
17
version: latest # 서비스 릴리즈 버전(필수):latest 시 업로드된 서비스 릴리즈 최신버전
18
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/monitoring/monitoring-release.tgz
19
- name: bpm
20
sha1: 0845cccca348c6988debba3084b5d65fa7ca7fa9
21
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/paasta/bpm-0.13.0-ubuntu-xenial-97.28-20181023-211102-981313842.tgz
22
version: 0.13.0
23
- name: redis
24
version: 14.0.1
25
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/service/redis-14.0.1.tgz
26
sha1: fd4a6107e1fb8aca1d551054d8bc07e4f53ddf05
27
- name: influxdb
28
version: latest
29
url: file:///home/((inception_os_user_name))/workspace/paasta-4.0/release/service/influxdb.tgz
30
sha1: 2337d1f26f46100b8d438b50b71e300941da74a2
31
32
33
instance_groups:
34
- name: redis
35
azs: [z4]
36
instances: 1
37
vm_type: small
38
stemcell: default
39
persistent_disk: 10240
40
networks:
41
- name: default
42
default: [dns, gateway]
43
static_ips:
44
- ((redis_ip))
45
- name: vip
46
static_ips:
47
- 115.68.151.177
48
49
jobs:
50
- name: redis
51
release: redis
52
properties:
53
password: ((redis_password))
54
- name: sanity-tests
55
azs: [z4]
56
instances: 1
57
lifecycle: errand
58
vm_type: small
59
stemcell: default
60
networks: [{name: default}]
61
jobs:
62
- name: sanity-tests
63
release: redis
64
65
- name: influxdb
66
azs: [z5]
67
instances: 1
68
vm_type: large
69
stemcell: default
70
persistent_disk_type: 10GB
71
networks:
72
- name: default
73
default: [dns, gateway]
74
static_ips:
75
- ((influxdb_ip))
76
- name: vip
77
static_ips:
78
- 115.68.151.187
79
80
jobs:
81
- name: influxdb
82
release: influxdb
83
properties:
84
influxdb:
85
database: cf_metric_db #InfluxDB default database
86
user: root #admin account
87
password: root #admin password
88
replication: 1
89
ips: 127.0.0.1 #local I2
90
- name: chronograf
91
release: influxdb
92
93
- name: mariadb
94
azs: [z5]
95
instances: 1
96
vm_type: medium
97
stemcell: default
98
persistent_disk_type: 5GB
99
networks:
100
- name: default
101
default: [dns, gateway]
102
static_ips: ((mariadb_ip))
103
- name: vip
104
static_ips:
105
- 115.68.151.188
106
jobs:
107
- name: mariadb
108
release: paasta-monitoring
109
properties:
110
mariadb:
111
port: ((mariadb_port)) #InfluxDB default database
112
admin_user:
113
password: '((mariadb_password))' # MARIA DB ROOT 계정 비밀번호
114
115
- name: monitoring-batch
116
azs: [z6]
117
instances: 1
118
vm_type: small
119
stemcell: default
120
networks:
121
- name: default
122
jobs:
123
- name: monitoring-batch
124
release: paasta-monitoring
125
consumes:
126
influxdb: {from: influxdb}
127
properties:
128
monitoring-batch:
129
influxdb:
130
url: ((influxdb_ip)):8086
131
db:
132
ip: ((mariadb_ip))
133
port: ((mariadb_port))
134
username: ((mariadb_username))
135
password: ((mariadb_password))
136
paasta:
137
cell_prefix: ((paasta_cell_prefix))
138
bosh:
139
url: ((bosh_url))
140
password: ((bosh_password))
141
director_name: ((director_name))
142
paasta:
143
deployments: ((paasta_deploy_name))
144
mail:
145
smtp:
146
url: ((smtp_url))
147
port: ((smtp_port))
148
sender:
149
name: ((mail_sender))
150
password: ((mail_password))
151
resource:
152
url: ((resource_url))
153
send: ((mail_enable))
154
tls: ((mail_tls_enable))
155
redis:
156
url: ((redis_ip)):6379
157
password: ((redis_password))
158
paasta:
159
url: http://api.((system_domain))
160
username: ((paasta_username))
161
password: ((paasta_password))
162
163
- name: monitoring-web
164
azs: [z6]
165
instances: 1
166
vm_type: small
167
stemcell: default
168
networks:
169
- name: default
170
default: [dns, gateway]
171
- name: vip
172
static_ips: [((monit_public_ip))]
173
174
jobs:
175
- name: monitoring-web
176
release: paasta-monitoring
177
properties:
178
monitoring-web:
179
db:
180
ip: ((mariadb_ip))
181
port: ((mariadb_port))
182
username: ((mariadb_username))
183
password: ((mariadb_password))
184
influxdb:
185
url: http://((influxdb_ip)):8086
186
paasta:
187
system_domain: ((system_domain))
188
bosh:
189
ip: ((bosh_url))
190
password: ((bosh_password))
191
director_name: ((director_name))
192
redis:
193
url: ((redis_ip)):6379
194
password: ((redis_password))
195
time:
196
gap: ((utc_time_gap))
197
198
variables:
199
- name: redis_password
200
type: password
201
202
203
update:
204
canaries: 1
205
canary_watch_time: 1000-180000
206
max_in_flight: 1
207
serial: true
208
update_watch_time: 1000-180000
Copied!

3.5.2. monit-deploy.sh

monit-deploy.sh의 –v 의 inception_os_user_name, system_domain 및 director_name을 시스템 상황에 맞게 설정한다.
1
bosh –e {director_name} -d paasta-monitoring deploy paasta-monitoring.yml \
2
-v inception_os_user_name=ubuntu \
3
-v mariadb_ip=10.20.50.11 \ # mariadb vm private IP
4
-v mariadb_port=3306 \ # mariadb port
5
-v mariadb_username=root \ # mariadb root 계정
6
-v mariadb_password=password \ # mariadb root 계정 password
7
-v influxdb_ip=10.20.50.15 \ # influxdb vm private IP
8
-v bosh_url=10.20.0.7 \ # bosh private IP
9
-v bosh_password=2w87no4mgc9mtpc0zyus \ # bosh admin password
10
-v director_name=micro-bosh \ # bosh director 명
11
-v paasta_deploy_name=paasta \ # paasta deployment 명
12
-v paasta_cell_prefix=cell \ # paasta cell 명
13
-v paasta_username=admin \ # paasta admin 계정
14
-v paasta_password=admin \ # paasta admin password
15
-v smtp_url=127.0.0.1 \ # smtp server url
16
-v smtp_port=25 \ # smtp server port
17
-v mail_sender=csupshin\ # smtp server admin id
18
-v mail_password=xxxx\ # smtp server admin password
19
-v mail_enable=flase \ # alarm 발생시 mail전송 여부
20
-v mail_tls_enable=false \ # smtp서버 인증시 tls모드인경우 true
21
-v redis_ip=10.20.40.11 \ # redis private ip
22
-v redis_password=password \ # redis 인증 password
23
-v utc_time_gap=9 \ # utc time zone과 Client time zone과의 시간 차이
24
-v monit_public_ip=xxx.xxx.xxx.xxx \ # 설치시 monitoring-web VM의 public ip
25
-v system_domain={System_domain} #PaaS-TA 설치시 설정한 System Domain
Copied!
Note: 1) mariadb, influxdb, redis vm은 사용자가 직접 ip를 지정한다. Ip 지정시 paasta-monitoring.yml의 az와 cloud-config의 subnet이 일치하는 ip대역내에 ip를 지정한다. 2) bosh_url: bosh 설치시 설정한 bosh private ip 3) bosh_password: bosh admin Password로 bosh deploy시 생성되는 bosh admin password를 입력해야 한다. ~/workspace/paasta-4.0/deployment/bosh-deployment/{iaas}/creds.yml creds.yml admin_password: xxxxxxxxx 4) smtp_url: smtp Server ip (PaaS-TA를 설치한 시스템에서 사용가능한 smtp 서버 IP 5) monit_public_ip: monitoring web의 public ip로 외부에서 모니터링 화면에 접속하기 위해 필요한 외부 ip(public ip 필요) 6) system_domain: paasta를 설치 할때 설정한 system_domain을 입력한다.
Monit-deploy.sh을 실행하여 paasta-monitoring을 설치 한다
1
$ cd ~/workspace/paasta-4.0/deployment/service-deployment/paasta-monitoring
2
$ monit-deploy.sh
Copied!
설치 완료후 PaaS-TA 모니터링이 설치 완료 되었음을 확인한다.
1
$ bosh –e {director_name} vms
Copied!

3.5.3. monitoring dashboard접속

http://{monitoring-web-ip}:8080 에 접속하여 회원 가입 후 Main Dashboard에 접속한다.
Login 화면에서 회원 가입 버튼을 클릭한다.
member_info에는 사용자가 사용할 ID/PWD를 입력하고 하단 paas-info에는 PaaS-TA admin 권한의 계정을 입력한다. paasta deploy시 입력한 admin/pwd를 입력해야 한다. 입력후 [인증수행]를 실행후 Joing버튼을 클릭하면 회원가입이 완료된다.
모니터링 main dashboard 화면