成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

如何在Docker中使用Compose一鍵部署ELK-創(chuàng)新互聯(lián)

如何在Docker中使用Compose一鍵部署ELK?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

創(chuàng)新互聯(lián)建站專注于徐聞企業(yè)網(wǎng)站建設(shè),響應(yīng)式網(wǎng)站,商城開發(fā)。徐聞網(wǎng)站建設(shè)公司,為徐聞等地區(qū)提供建站服務(wù)。全流程按需求定制設(shè)計,專業(yè)設(shè)計,全程項目跟蹤,創(chuàng)新互聯(lián)建站專業(yè)和態(tài)度為您提供的服務(wù)

安裝

??Filebeat 已經(jīng)完全替代了 Logstash-Forwarder 成為新一代的日志采集器,因為它更加輕量、安全?;?Filebeat + ELK 的部署方案架構(gòu)圖如下:?

如何在Docker中使用Compose一鍵部署ELK

??軟件版本:

服務(wù)版本說明
CentOS7.6
Docker18.09.5
Docker Compose1.25.0
ELK7.5.1
Filebeat7.5.1

docker-compose 文件

version: "3"
services:
 es-master:
  container_name: es-master
  hostname: es-master
  image: elasticsearch:7.5.1
  restart: always
  ports:
   - 9200:9200
   - 9300:9300
  volumes:
   - ./elasticsearch/master/conf/es-master.yml:/usr/share/elasticsearch/config/elasticsearch.yml
   - ./elasticsearch/master/data:/usr/share/elasticsearch/data
   - ./elasticsearch/master/logs:/usr/share/elasticsearch/logs
  environment:
   - "ES_JAVA_OPTS=-Xms512m -Xmx512m"

 es-slave1:
  container_name: es-slave1
  image: elasticsearch:7.5.1
  restart: always
  ports:
   - 9201:9200
   - 9301:9300
  volumes:
   - ./elasticsearch/slave1/conf/es-slave1.yml:/usr/share/elasticsearch/config/elasticsearch.yml
   - ./elasticsearch/slave1/data:/usr/share/elasticsearch/data
   - ./elasticsearch/slave1/logs:/usr/share/elasticsearch/logs
  environment:
   - "ES_JAVA_OPTS=-Xms512m -Xmx512m"

 es-slave2:
  container_name: es-slave2
  image: elasticsearch:7.5.1
  restart: always
  ports:
   - 9202:9200
   - 9302:9300
  volumes:
   - ./elasticsearch/slave2/conf/es-slave2.yml:/usr/share/elasticsearch/config/elasticsearch.yml
   - ./elasticsearch/slave2/data:/usr/share/elasticsearch/data
   - ./elasticsearch/slave2/logs:/usr/share/elasticsearch/logs
  environment:
   - "ES_JAVA_OPTS=-Xms512m -Xmx512m"

 kibana:
  container_name: kibana
  hostname: kibana
  image: kibana:7.5.1
  restart: always
  ports:
   - 5601:5601
  volumes:
   - ./kibana/conf/kibana.yml:/usr/share/kibana/config/kibana.yml
  environment:
   - elasticsearch.hosts=http://es-master:9200
  depends_on:
   - es-master
   - es-slave1
   - es-slave2

 # filebeat:
 #  # 容器名稱
 #  container_name: filebeat
 #  # 主機名稱
 #  hostname: filebeat
 #  # 鏡像
 #  image: docker.elastic.co/beats/filebeat:7.5.1
 #  # 重啟機制
 #  restart: always
 #  # 持久化掛載
 #  volumes:
 #   - ./filebeat/conf/filebeat.yml:/usr/share/filebeat/filebeat.yml
 #   # 映射到容器中[作為數(shù)據(jù)源]
 #   - ./logs:/home/project/spring-boot-elasticsearch/logs
 #   - ./filebeat/logs:/usr/share/filebeat/logs
 #   - ./filebeat/data:/usr/share/filebeat/data
 #  # 將指定容器連接到當(dāng)前連接,可以設(shè)置別名,避免ip方式導(dǎo)致的容器重啟動態(tài)改變的無法連接情況
 #  links:
 #   - logstash
 #  # 依賴服務(wù)[可無]
 #  depends_on:
 #   - es-master
 #   - es-slave1
 #   - es-slave2

 logstash:
  container_name: logstash
  hostname: logstash
  image: logstash:7.5.1
  command: logstash -f ./conf/logstash-filebeat.conf
  restart: always
  volumes:
   # 映射到容器中
   - ./logstash/conf/logstash-filebeat.conf:/usr/share/logstash/conf/logstash-filebeat.conf
   - ./logstash/ssl:/usr/share/logstash/ssl
  environment:
   - elasticsearch.hosts=http://es-master:9200
   # 解決logstash監(jiān)控連接報錯
   - xpack.monitoring.elasticsearch.hosts=http://es-master:9200
  ports:
   - 5044:5044
  depends_on:
   - es-master
   - es-slave1
   - es-slave2

??這里把Filebeat 給注釋掉了,打算在各個需要搜集日志的服務(wù)器上面單獨部署Filebeat。

記得把 Elasticsearch 的 data 和 logs 設(shè)置chmod 777

es-master.yml

# 集群名稱
cluster.name: es-cluster
# 節(jié)點名稱
node.name: es-master
# 是否可以成為master節(jié)點
node.master: true
# 是否允許該節(jié)點存儲數(shù)據(jù),默認(rèn)開啟
node.data: false
# 網(wǎng)絡(luò)綁定
network.host: 0.0.0.0
# 設(shè)置對外服務(wù)的http端口
http.port: 9200
# 設(shè)置節(jié)點間交互的tcp端口
transport.port: 9300
# 集群發(fā)現(xiàn)
discovery.seed_hosts:
 - es-master
 - es-slave1
 - es-slave2
# 手動指定可以成為 mater 的所有節(jié)點的 name 或者 ip,這些配置將會在第一次選舉中進行計算
cluster.initial_master_nodes:
 - es-master
# 支持跨域訪問
http.cors.enabled: true
http.cors.allow-origin: "*"
# 安全認(rèn)證
xpack.security.enabled: false
#http.cors.allow-headers: "Authorization"

es-slave1.yml

# 集群名稱
cluster.name: es-cluster
# 節(jié)點名稱
node.name: es-slave1
# 是否可以成為master節(jié)點
node.master: true
# 是否允許該節(jié)點存儲數(shù)據(jù),默認(rèn)開啟
node.data: true
# 網(wǎng)絡(luò)綁定
network.host: 0.0.0.0
# 設(shè)置對外服務(wù)的http端口
http.port: 9201
# 設(shè)置節(jié)點間交互的tcp端口
#transport.port: 9301
# 集群發(fā)現(xiàn)
discovery.seed_hosts:
 - es-master
 - es-slave1
 - es-slave2
# 手動指定可以成為 mater 的所有節(jié)點的 name 或者 ip,這些配置將會在第一次選舉中進行計算
cluster.initial_master_nodes:
 - es-master
# 支持跨域訪問
http.cors.enabled: true
http.cors.allow-origin: "*"
# 安全認(rèn)證
xpack.security.enabled: false
#http.cors.allow-headers: "Authorization"

es-slave2.yml

# 集群名稱
cluster.name: es-cluster
# 節(jié)點名稱
node.name: es-slave2
# 是否可以成為master節(jié)點
node.master: true
# 是否允許該節(jié)點存儲數(shù)據(jù),默認(rèn)開啟
node.data: true
# 網(wǎng)絡(luò)綁定
network.host: 0.0.0.0
# 設(shè)置對外服務(wù)的http端口
http.port: 9202
# 設(shè)置節(jié)點間交互的tcp端口
#transport.port: 9302
# 集群發(fā)現(xiàn)
discovery.seed_hosts:
 - es-master
 - es-slave1
 - es-slave2
# 手動指定可以成為 mater 的所有節(jié)點的 name 或者 ip,這些配置將會在第一次選舉中進行計算
cluster.initial_master_nodes:
 - es-master
# 支持跨域訪問
http.cors.enabled: true
http.cors.allow-origin: "*"
# 安全認(rèn)證
xpack.security.enabled: false
#http.cors.allow-headers: "Authorization"

logstash-filebeat.conf

input {
  # 來源beats
  beats {
    # 端口
    port => "5044"
    ssl_certificate_authorities => ["/usr/share/logstash/ssl/ca.crt"]
    ssl_certificate => "/usr/share/logstash/ssl/server.crt"
    ssl_key => "/usr/share/logstash/ssl/server.key"
    ssl_verify_mode => "force_peer"
  }
}
# 分析、過濾插件,可以多個
filter {
  grok {
    match => { "message" => "%{COMBINEDAPACHELOG}"}
  }
  geoip {
    source => "clientip"
  }
}
output {
  # 選擇elasticsearch
  elasticsearch {
    hosts => ["http://es-master:9200"]
    index => "%{[fields][service]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
  }
}

filebeat.yml

filebeat.inputs:
 - type: log
  enabled: true
  paths:
   # 當(dāng)前目錄下的所有.log文件
   - /root/tmp/logs/*.log
  fields:
   service: "our31-java"
  multiline.pattern: ^\[
  multiline.negate: true
  multiline.match: after
 - type: log
  enabled: true
  paths:
   # 當(dāng)前目錄下的所有.log文件
   - /root/tmp/log/*.log
  fields:
   service: "our31-nginx"

filebeat.config.modules:
 path: ${path.config}/modules.d/*.yml
 reload.enabled: false

# setup.template.settings:
#  index.number_of_shards: 1

# setup.dashboards.enabled: false

# setup.kibana:
#  host: "http://localhost:5601"

# 不直接傳輸至ES
#output.elasticsearch:
# hosts: ["http://es-master:9200"]
# index: "filebeat-%{[beat.version]}-%{+yyyy.MM.dd}"

setup.ilm.enabled: false

output.logstash:
 hosts: ["logstash.server.com:5044"]
 
 # Optional SSL. By default is off.
 # List of root certificates for HTTPS server verifications
 ssl.certificate_authorities: "./ssl/ca.crt"
 # Certificate for SSL client authentication
 ssl.certificate: "./ssl/client.crt"
 # Client Certificate Key
 ssl.key: "./ssl/client.key"

# processors:
#  - add_host_metadata: ~
#  - add_cloud_metadata: ~

注意

生成證書,配置 SSL,讓 Filebeat 與 Logstash 之間建立 SSL。

#生成ca私鑰
openssl genrsa 2048 > ca.key
 
#使用ca私鑰建立ca證書
openssl req -new -x509 -nodes -key ca.key -subj /CN=elkCA\ CA/OU=Development\ group/O=HomeIT\ SIA/DC=elk/DC=com > ca.crt
 
#生成服務(wù)器csr證書請求文件
openssl req -newkey rsa:2048 -nodes -keyout server.key -subj /CN=logstash.server.com/OU=Development\ group/O=Home\ SIA/DC=elk/DC=com > server.csr
 
#使用ca證書與私鑰簽發(fā)服務(wù)器證書
openssl x509 -req -in server.csr -CA ca.crt -CAkey ca.key -set_serial 01 > server.crt
 
#生成客戶端csr證書請求文件
openssl req -newkey rsa:2048 -nodes -keyout client.key -subj /CN=filebeat.client.com/OU=Development\ group/O=Home\ SIA/DC=elk/DC=com > client.csr
 
#使用ca證書與私鑰簽發(fā)客戶端證書
openssl x509 -req -in client.csr -CA ca.crt -CAkey ca.key -set_serial 01 > client.crt

??證書記得放到對應(yīng)的文件夾中。

Filebeat 中output.logstash.hosts 配置的域名要與證書相符。

根據(jù)不同服務(wù)器、不同服務(wù)、不同日期動態(tài)生成索引

如何在Docker中使用Compose一鍵部署ELK

??上面的這張圖片中,加上了一些自定義屬性,這些屬性會傳遞到 Logstash 中,Logstash 會拿到這些屬性動態(tài)的向 Elasticsearch 中創(chuàng)建索引,如下圖:

如何在Docker中使用Compose一鍵部署ELK

詳細(xì)介紹看官方文檔,metadata,動態(tài)索引生成。

??這里本來想使用 indices 來動態(tài)生成索引,但是根據(jù)官方配置,并沒有成功,哪位兄弟知道可以告知下為什么。

利用 Nginx Http Basic Authorization 讓 Kibana 需要登錄

??先使用工具htpasswd 生成用戶信息

$ yum -y install httpd-tools

??創(chuàng)建新密碼文件

如何在Docker中使用Compose一鍵部署ELK

??追加用戶信息:

如何在Docker中使用Compose一鍵部署ELK

??最后配置好 Nginx 即可:

server {
  ......
  
  auth_basic "Kibana Auth";
  auth_basic_user_file /usr/local/nginx/pwd/kibana/passwd;
  
  ......
}

單獨啟動 Filebeat 的方式

$ nohup ./filebeat 2>&1 &

啟動 Docker Compose

??在docker-compose.yml 所在目錄執(zhí)行:

$ docker-compose up --build -d

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)網(wǎng)站建設(shè)公司,的支持。

網(wǎng)頁標(biāo)題:如何在Docker中使用Compose一鍵部署ELK-創(chuàng)新互聯(lián)
當(dāng)前地址:http://jinyejixie.com/article38/jspsp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站制作商城網(wǎng)站、面包屑導(dǎo)航、網(wǎng)站維護、靜態(tài)網(wǎng)站、外貿(mào)網(wǎng)站建設(shè)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)
济宁市| 法库县| 墨竹工卡县| 喀喇沁旗| 仁化县| 仁化县| 新泰市| 句容市| 行唐县| 黔南| 安福县| 松原市| 田东县| 汤原县| 双鸭山市| 娄烦县| 沽源县| 隆昌县| 水城县| 广河县| 疏勒县| 疏勒县| 西乌| 晋中市| 泰州市| 满洲里市| 湖口县| 临江市| 山西省| 甘谷县| 沧源| 永胜县| 临澧县| 五大连池市| 平邑县| 河间市| 汉中市| 兰溪市| 娄烦县| 修水县| 玛纳斯县|