zxznsjdsj 2019-12-21
需要学习的地方:使用logstash获取数据后,然后根据这些数据再从MySQL数据库中进行匹配,增加一些数据到logstash的数据流中,然后输出到es
在IoT物联网时代,我们经常会遇到从传感器采集数据的情况。这些传感器,可以上传物联网数据,比如温度,湿度。通常这些传感器带有自己的ID,但是它并不具有像地理位置等这样的信息。当物联网数据传到我们的数据平台时,我们希望对采集上来的数据进行数据的丰富,比如我们对物联网的数据加上它所在的位置等信息,这将对我们的数据分析非常有用。这些需要丰富的数据通常会存放于一个关系数据库的表格中,比如MySQL的数据库中。在今天的文章中,我们来介绍如何使用jdbc_streamline来丰富我们的数据。
把MySQL数据导入到Elasticsearch中”来进行安装及配置好自己的MySQL数据库。记得把相应的Connector放入相应的文件目录中。
安装好我们的MySQL后,创建一个叫做data的数据库,并创建一个叫做sensors的表格
在这里,我们创建一个记录。这个记录是用来丰富我们的物联网的数据的。当传感器传入的数据的id和这个表格id相匹配的时候,那么这个表格的数据将会被加入到事件中,从而丰富我们的事件数据。
我们先定义一个配置这样一个叫做logstash_jdbc_streaming.con的文件,并把它置于自己的一个文件目录中,比如我把它存于我的一个叫做data的目录中:
# data/logstash_jdbc_streaming.conf input { http { id => "sensor_data_http_input" user => "sensor_data" password => "sensor_data" } } output { stdout { codec => rubydebug } }
在这里,我们使用一个叫做http的input。HTTP输入插件的参考文档位https://www.elastic.co/guide/en/logstash/current/plugins-inputs-http.html。
在这种情况下,由于我们使用的是http输入插件的默认配置,因此我们刚刚指定了ID。我们应该保护此HTTP端点的安全,因为它将在Internet上公开,以允许传感器从任何地方发送数据。 我们可以配置用户和密码参数,以使用所需的用户名和密码保护此端。
我们可以先启动我们的Logstash。在Logstash的安装目录下运行:
./bin/logstash -f ~/data/logstash_jdbc_streaming.conf
使用此输入插件启动Logstash时,它将在端口8080上启动HTTP服务器,该HTTP服务器使用具有给定用户名和密码的基本身份验证进行保护。 我们可以使用curl命令将请求发送到此Logstash管道,如下所示:
curl -XPOST -u sensor_data:sensor_data --header "Content-Type:application/json" "http://localhost:8080/" -d '{"id":1,"time":1512102540000,"reading":17.00}'
当我们执行上面的命令后,我们可以在Logstash运行的terminal中看到显示结果。
我们接下来丰富我们的传感器传来的数据。首先,我们来进一步修改我们的Logstash配置文件:
# cat data/logstash_jdbc_streaming.conf input { http { id => "sensor_data_http_input" user => "sensor_data" password => "sensor_data" } } filter { jdbc_streaming { jdbc_connection_string => "jdbc:mysql://localhost:3306/data?useTimezone=true&&serverTimezone=UTC" jdbc_user => "root" jdbc_password => "YourDatabasePassword" jdbc_validate_connection => true jdbc_driver_class => "com.mysql.cj.jdbc.Driver" parameters => { "sensor_identifier" => "id"} statement => "select * from sensors where id= :sensor_identifier" target => lookupResult } } output { stdout { codec => rubydebug } }
这里必须注意的几点:
$ pwd /Users/liuxg/elastic/logstash-7.3.0 (base) liuxg:logstash-7.3.0 liuxg$ ls ./logstash-core/lib/jars/mysql-connector-java-8.0.17.jar ./logstash-core/lib/jars/mysql-connector-java-8.0.17.jar
[2019-10-10T14:41:53,015][ERROR][logstash.javapipeline ] Pipeline aborted due to error {:pipeline_id=>"main", :exception=>#<TypeError: failed to coerce jdk.internal.loader.ClassLoaders$AppClassLoader to java.net.URLClassLoader>, :backtrace=>["org/jruby/java/addons/KernelJavaAddons.java:29:in `to_java'", "/Users/liuxg/elastic/logstash-7.3.0/vendor/bundle/jruby/2.5.0/gems/logstash-filter-jdbc_streaming-1.0.7/lib/logstash/plugin_mixins/jdbc_streaming.rb:48:in `prepare_jdbc_connection'", "/Users/liuxg/elastic/logstash-7.3.0/vendor/bundle/jruby/2.5.0/gems/logstash-filter-jdbc_streaming-1.0.7/lib/logstash/filters/jdbc_streaming.rb:200:in `prepare_connected_jdbc_cache'", "/Users/liuxg/elastic/logstash-7.3.0/vendor/bundle/jruby/2.5.0/gems/logstash-filter-jdbc_streaming-1.0.7/lib/logstash/filters/jdbc_streaming.rb:116:in `register'", "org/logstash/config/ir/compiler/AbstractFilterDelegatorExt.java:56:in `register'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:192:in `block in register_plugins'", "org/jruby/RubyArray.java:1792:in `each'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:191:in `register_plugins'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:463:in `maybe_setup_out_plugins'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:204:in `start_workers'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:146:in `run'", "/Users/liuxg/elastic/logstash-7.3.0/logstash-core/lib/logstash/java_pipeline.rb:105:in `block in start'"], :thread=>"#<Thread:0x3fa8c5a3 run>"}
如果有运行错误,比如timezone错误,需要在JDBC请求时加入serverTimezone
当我们完成上面的一步的时候,我们重新运行我们的Logstash:
./bin/logstash -f ~/data/logstash_jdbc_streaming.conf
在另外一个terminal上,打入如下的命令:
curl -XPOST -u sensor_data:sensor_data --header "Content-Type:application/json" "http://localhost:8080/" -d '{"id":1,"time":1512102540000,"reading":17.00}'
我们可以看到如下的输出在Logstash的terminal上.
在上面,我们可以看到丰富后的数据在lookupResult中出现了。我们可以进一步改造我们的配置文件,并对从收据库中收集的数据更进一步地加工:
# cat data/logstash_jdbc_streaming.conf input { http { id => "sensor_data_http_input" user => "sensor_data" password => "sensor_data" } } filter { jdbc_streaming { jdbc_connection_string => "jdbc:mysql://localhost:3306/data?useTimezone=true&&serverTimezone=UTC" jdbc_user => "root" jdbc_password => "YourDabaePassword" jdbc_validate_connection => true jdbc_driver_class => "com.mysql.cj.jdbc.Driver" parameters => { "sensor_identifier" => "id"} statement => "select * from sensors where id= :sensor_identifier" target => lookupResult } mutate { rename => {"[lookupResult][0][sensorType]" => "sensorType"} rename => {"[lookupResult][0][customer]" => "customer"} rename => {"[lookupResult][0][department]" => "department"} rename => {"[lookupResult][0][buildingName]" => "buildingName"} rename => {"[lookupResult][0][room]" => "room"} rename => {"[lookupResult][0][floor]" => "floor"} rename => {"[lookupResult][0][locationOnFloor]" => "locationOnFloor"} add_field => { "location" => "%{[lookupResult][0][latitude]},%{[lookupResult][0][longitude]}" } remove_field => ["lookupResult", "headers", "host"] } } output { stdout { codec => rubydebug } }
重新运行我们的Logstash应用,并在另外一个terminal中打入curl指令,可以看出来这是经过我们转换后的数据。我们删除了一下并不需要的数据,同时,我们也把经纬度信息组合为我们需要的location字段。可以为未来我们的位置信息查询提供方便。
到目前为止,我们只显示我们的数据到stdout,仅供我们调试所使用。我们可以进一步改造我们的配置文件:
cat data/logstash_jdbc_streaming.conf input { http { id => "sensor_data_http_input" user => "sensor_data" password => "sensor_data" } } filter { jdbc_streaming { jdbc_connection_string => "jdbc:mysql://localhost:3306/data?useTimezone=true&&serverTimezone=UTC" jdbc_user => "root" jdbc_password => "YourPassword" jdbc_validate_connection => true jdbc_driver_class => "com.mysql.cj.jdbc.Driver" parameters => { "sensor_identifier" => "id"} statement => "select * from sensors where id= :sensor_identifier" target => lookupResult } mutate { rename => {"[lookupResult][0][sensorType]" => "sensorType"} rename => {"[lookupResult][0][customer]" => "customer"} rename => {"[lookupResult][0][department]" => "department"} rename => {"[lookupResult][0][buildingName]" => "buildingName"} rename => {"[lookupResult][0][room]" => "room"} rename => {"[lookupResult][0][floor]" => "floor"} rename => {"[lookupResult][0][locationOnFloor]" => "locationOnFloor"} add_field => { "location" => "%{[lookupResult][0][latitude]},%{[lookupResult][0][longitude]}" } remove_field => ["lookupResult", "headers", "host"] } } output { stdout { codec => rubydebug } elasticsearch { hosts => ["localhost:9200"] index => "sensor_data-%{+YYYY.MM.dd}" user => "elastic" password => "elastic" } }
这次,我们加入了elasticsearch作为一个输出。打开我们的Kibana可以看出来,我们已经成功地把数据输出到Elasticsearch之中了。
在实际的使用中,我们可以不间断地运用这个jdbc_streaming把我们的从物联网中收集的数据进行丰富。