spylyt 2020-02-19
docker pull logstash:7.5.1
docker run --name logstash -d -p 5044:5044 --net esnet 8b94897b4254
命令中的--net设置的网络要和ES、kibana保持一致
// 0.0.0.0:允许任何IP访问 http.host: "0.0.0.0" // 配置elasticsearch集群地址 xpack.monitoring.elasticsearch.hosts: [ "http://192.168.172.131:9200","http://192.168.172.129:9200","http://192.168.172.128:9200" ] // 允许监控 xpack.monitoring.enabled: true // 启动时读取配置文件指定 path.config: /usr/share/logstash/config/logstash.conf // 指定的该文件可以配置Logstash读取一些文件导入ES
# Sample Logstash configuration for creating a simple # Beats -> Logstash -> Elasticsearch pipeline. input { //这块端口可以不配,因为默认就是5044端口 beats { port => 5044 } } output { elasticsearch { // 配置成ES节点,集群则可以配置所有节点 hosts => ["http://localhost:9200"] // 可以自定义 index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}" #user => "elastic" #password => "changeme" } }
如果在logstash启动的时候要导入文档
配置如下:
input { file { path => "/usr/share/logstash/bin/file.csv" start_position => "beginning" sincedb_path => "/dev/null" } } ?````` output { elasticsearch { hosts => "http://localhost:9200" index => "file" document_id => "%{id}" } stdout {} }
当然,7.X版本默认只有一个主分片和一个副分片,如果我们想要指定多个分片,那么需要在启动logstash的时候预先创建好索引,并设置好分片分配
PUT /file { "settings": { "number_of_shards": 3, "number_of_replicas": 1 } }
具体Elasticsearch集群搭建请移步到:https://blog.51cto.com/9844951/2471039
另外一部分,则需要先做聚类、分类处理,将聚合出的分类结果存入ES集群的聚类索引中。数据处理层的聚合结果存入ES中的指定索引,同时将每个聚合主题相关的数据存入每个document下面的某个field下。