spylyt 2020-02-19
docker pull logstash:7.5.1
docker run --name logstash -d -p 5044:5044 --net esnet 8b94897b4254
命令中的--net设置的网络要和ES、kibana保持一致
// 0.0.0.0:允许任何IP访问 http.host: "0.0.0.0" // 配置elasticsearch集群地址 xpack.monitoring.elasticsearch.hosts: [ "http://192.168.172.131:9200","http://192.168.172.129:9200","http://192.168.172.128:9200" ] // 允许监控 xpack.monitoring.enabled: true // 启动时读取配置文件指定 path.config: /usr/share/logstash/config/logstash.conf // 指定的该文件可以配置Logstash读取一些文件导入ES
# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.
input {
//这块端口可以不配,因为默认就是5044端口
beats {
port => 5044
}
}
output {
elasticsearch {
// 配置成ES节点,集群则可以配置所有节点
hosts => ["http://localhost:9200"]
// 可以自定义
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
#user => "elastic"
#password => "changeme"
}
}如果在logstash启动的时候要导入文档
配置如下:
input {
file {
path => "/usr/share/logstash/bin/file.csv"
start_position => "beginning"
sincedb_path => "/dev/null"
}
}
?`````
output {
elasticsearch {
hosts => "http://localhost:9200"
index => "file"
document_id => "%{id}"
}
stdout {}
}当然,7.X版本默认只有一个主分片和一个副分片,如果我们想要指定多个分片,那么需要在启动logstash的时候预先创建好索引,并设置好分片分配
PUT /file
{
"settings": {
"number_of_shards": 3,
"number_of_replicas": 1
}
}具体Elasticsearch集群搭建请移步到:https://blog.51cto.com/9844951/2471039
另外一部分,则需要先做聚类、分类处理,将聚合出的分类结果存入ES集群的聚类索引中。数据处理层的聚合结果存入ES中的指定索引,同时将每个聚合主题相关的数据存入每个document下面的某个field下。