athrenzala 2019-12-22
ES:全文检索的框架,专门做搜索,支持分布式、集群。封装的Lucene。
特点:
Lucene:全文检索,api比较麻烦,操作全文检索的最底层技术。
核心:创建索引,搜索索引
Solr和ES的区别:
(1) Solr重量级,支持很多种类型操作,支持分布式,它里面有很多功能,但是在实时领域上没有ES好。
(2) ES轻量级,支持json的操作格式,在实时搜索领域里面做得不错,如果想使用其他的功能,需要额外安装插件。
ES服务只依赖于JDK,推荐使用JDK1.7+。
(1)下载ES安装包:ES官方下载地址
(2)运行ES (双击bin目录下的elasticsearch.bat)
(3)验证是否运行成功,访问:http://localhost:9200/
如果看到如下信息,则说明ES集群已经启动并且正常运行。
(1)基于RESTful API
ES和所有客户端的交互都是使用JSON格式的数据.
其他所有程序语言都可以使用RESTful API,通过9200端口的与ES进行通信,在开发测试阶段,你可以使用你喜欢的WEB客户端, curl命令以及火狐的POSTER插件方式和ES通信。
Curl命令方式:
默认windows下不支持curl命令,在资料中有curl的工具及简单使用说明。
火狐的POSTER插件界面:
类似于Firebug,在火狐的“扩展”中搜索“POSTER”,并安装改扩展工具。
使用POSTER模拟请求的效果
(2)Java API
ES为Java用户提供了两种内置客户端:
节点客户端(node client):
节点客户端以无数据节点(none data node)身份加入集群,换言之,它自己不存储任何数据,但是它知道数据在集群中的具体位置,并且能够直接转发请求到对应的节点上。
传输客户端(Transport client):
这个更轻量的传输客户端能够发送请求到远程集群。它自己不加入集群,只是简单转发请求给集群中的节点。
两个Java客户端都通过9300端口与集群交互,使用ES传输协议(ES Transport Protocol)。集群中的节点
之间也通过9300端口进行通信。如果此端口未开放,你的节点将不能组成集群。
注意:
Java客户端所在的ES版本必须与集群中其他节点一致,否则,它们可能互相无法识别。
(1)Kibana5.2.2下载地址:Kibana官方下载地址
(2)解压并编辑config/kibana.yml,设置elasticsearch.url的值为已启动的ES
(3)启动Kibana5 (在bin目录下双击kibana.bat)
(4)验证是否成功,默认访问地址:http://localhost:5601
(1)进入head文件中,输入cmd,打开控制台,输入npm install进行安装。
(2)安装完成,输入命令npm run start启动服务
(3)配置允许跨域访问,在elasticsearch/config/elasticsearch.yml文件末尾加上
http.cors.enabled: true
http.cors.allow-origin: “*”
(4)重启elasticsearch服务,访问http://localhost:9100
#新增 PUT crm/employee/1 { "name":"xxxx", "age":18 } #查询 GET crm/employee/1 #修改 POST crm/employee/1 { "name":"yyyy", "age":28 } #删除 DELETE crm/employee/1 #没有指定id 字段生成id POST crm/employee { "name":"yyyy", "age":28 } # AW8iLW-mRN4d1HhhqMMJ GET crm/employee/AW8iLW-mRN4d1HhhqMMJ GET _search
# 查询所有 GET _search #漂亮格式 GET crm/employee/AW8iLW-mRN4d1HhhqMMJ?pretty #指定返回的列 GET crm/employee/AW8iLW-mRN4d1HhhqMMJ?_source=name,age #不要元数据 只返回具体数据 GET crm/employee/AW8iLW-mRN4d1HhhqMMJ/_source
#修改 --覆盖以前json POST crm/employee/AW8iLW-mRN4d1HhhqMMJ { "name":"yyyy888" } #局部更新 POST crm/employee/AW8iLW-mRN4d1HhhqMMJ/_update { "doc":{ "name":"baocheng" } }
POST _bulk { "delete": { "_index": "xlj", "_type": "department", "_id": "123" }} { "create": { "_index": "xlj", "_type": "book", "_id": "123" }} { "title": "我发行的第一本书" } { "index": { "_index": "itsource", "_type": "book" }} { "title": "我发行的第二本书" } # 普通查询: GET crm/department/id # 批量查询: GET xlj/book/_mget { "ids" : [ "123", "AH8ht-oSqTn8hjKcHo2i" ] }
# 从第0条开始查询3条student信息 GET crm/student/_search?size=3 # 从第2条开始查询2条student信息 GET crm/student/_search?from=2&size=2 # 表示查询age=15的人 GET crm/student/_search?q=age:15 # 查询3条student的信息,他们的age范围到10到20 GET crm/student/_search?size=3&q=age[10 TO 20]
如果上面的查询涉及条件比较多,就不适合使用
由ES提供丰富且灵活的查询语言叫做DSL查询(Query DSL),它允许你构建更加复杂、强大的查询。
DSL(Domain Specific Language特定领域语言)以JSON请求体的形式出现。
DSL分成两部分:
DSL查询
DSL过滤
(1)过滤结果可以缓存并应用到后续请求。
?(2)查询语句同时匹配文档,计算相关性,所以更耗时,且不缓存。
(3)过滤语句可有效地配合查询语句完成文档过滤。
总之在原则上,使用DSL查询做全文本搜索或其他需要进行相关性评分的场景,其它全用DSL过滤。
GET crm/student/_search { "query": { "match_all": {} }, "from": 0, "size": 3, "_source": ["name", "age"], "sort": [{"age": "asc"}] }
#DSL过滤 --> name = ‘tangtang‘ --支持缓存 #select * from student where name=tangtang and age = 500 GET crm/student/_search { "query": { "bool": { "must": [ {"match": { "name": "tangtang" }} ], "filter": { "term":{"age":500} } } }, "from": 0, "size": 3, "_source": ["name", "age"], "sort": [{"age": "asc"}] } #select * from student where age = 500 and name != ‘tangtang‘ GET crm/student/_search { "query": { "bool": { "must_not": [ {"match": { "name": "tangtang" }} ], "filter": { "term":{"age":500} } } }, "from": 0, "size": 3, "_source": ["name", "age"], "sort": [{"age": "asc"}] }
什么叫分词:把一段话按照一定规则拆分开
为什么要分词:便于检索
分词器放入ES:
解压ik分词器 -->在es 在plugins目录 -->创建一个IK文件夹 -->把ik插件拷贝到ik文件下面
测试ES怎么使用分词:
POST _analyze { "analyzer":"ik_smart", "text":"中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首" }
分片::存储内容,主分片和从分片
node:节点,有很多类型的节点
节点属性的配置:
四种组合配置方式:
(1)node.master: true node.data: true
这种组合表示这个节点即有成为主节点的资格,又存储数据。
如果某个节点被选举成为了真正的主节点,那么他还要存储数据,这样对于这个节点的压力就比较大了。ElasticSearch默认每个节点都是这样的配置,在测试环境下这样做没问题。实际工作中建议不要这样设置,因为这样相当于主节点和数据节点的角色混合到一块了。
(2)node.master: false node.data: true
这种组合表示这个节点没有成为主节点的资格,也就不参与选举,只会存储数据。
这个节点我们称为data(数据)节点。在集群中需要单独设置几个这样的节点负责存储数据,后期提供存储和查询服务。
(3)node.master: true node.data: false
这种组合表示这个节点不会存储数据,有成为主节点的资格,可以参与选举,有可能成为真正的主节点,这个节点我们称为master节点。
(4)node.master: false node.data: false
这种组合表示这个节点即不会成为主节点,也不会存储数据,这个节点的意义是作为一个client(客户端)节点,主要是针对海量请求的时候可以进行负载均衡。
搭建三个节点的集群
(1) 拷贝三个ES 分别取名为node1 node2 node3
(2) 修改配置
修改内存配置 xms xmx
配置 elasticsearch.yml
# 统一的集群名 cluster.name: my-ealsticsearch # 当前节点名 node.name: node-1 # 对外暴露端口使外网访问 network.host: 127.0.0.1 # 对外暴露端口 http.port: 9201 #集群间通讯端口号 transport.tcp.port: 9301 #集群的ip集合,可指定端口,默认为9300 discovery.zen.ping.unicast.hosts: [“127.0.0.1:9301”,”127.0.0.1:9302”,”127.0.0.1:9303”]
(3) 配置跨域
(4) 启动 node1 node2 node3
(5) 启动head
创建索引,指定分片(如果没有分配从分片,磁盘占用率太高,可以设置:cluster.routing.allocation.disk.threshold_enabled: false)
ES对Java提供一套操作索引库的工具包,即Java API。所有的ES操作都使用Client对象执行。
ES的Maven引入:
<dependency> <groupId>org.elasticsearch.client</groupId> <artifactId>transport</artifactId> <version>5.2.2</version> </dependency> <dependency> <groupId>org.apache.logging.log4j</groupId> <artifactId>log4j-api</artifactId> <version>2.7</version> </dependency> <dependency> <groupId>org.apache.logging.log4j</groupId> <artifactId>log4j-core</artifactId> <version>2.7</version> </dependency>
import org.elasticsearch.action.bulk.BulkRequestBuilder; import org.elasticsearch.action.bulk.BulkResponse; import org.elasticsearch.action.index.IndexRequest; import org.elasticsearch.action.index.IndexRequestBuilder; import org.elasticsearch.action.search.SearchRequestBuilder; import org.elasticsearch.action.search.SearchResponse; import org.elasticsearch.action.update.UpdateRequest; import org.elasticsearch.client.transport.TransportClient; import org.elasticsearch.common.settings.Settings; import org.elasticsearch.common.transport.InetSocketTransportAddress; import org.elasticsearch.index.query.BoolQueryBuilder; import org.elasticsearch.index.query.QueryBuilder; import org.elasticsearch.index.query.QueryBuilders; import org.elasticsearch.search.SearchHit; import org.elasticsearch.search.SearchHits; import org.elasticsearch.search.sort.SortOrder; import org.elasticsearch.transport.client.PreBuiltTransportClient; import org.junit.Test; import java.net.InetAddress; import java.util.HashMap; import java.util.List; import java.util.Map; public class EsTest { /** * 连接es服务方法 嗅探方式 */ private TransportClient getClient() throws Exception { Settings settings = Settings.builder() .put("client.transport.sniff", true).build(); TransportClient client = new PreBuiltTransportClient(settings). addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("127.0.0.1"), 9300)); return client; } /** * 新增 */ @Test public void testAdd() throws Exception { TransportClient client = getClient(); IndexRequestBuilder builder = client.prepareIndex("crm", "user", "1"); Map map = new HashMap(); map.put("name", "james"); map.put("age", 35); System.out.println(builder.setSource(map).get()); client.close(); } /** * 查询 */ @Test public void testGet() throws Exception { TransportClient client = getClient(); System.out.println(client.prepareGet("crm", "user", "1").get().getSource()); client.close(); } /** * 修改 */ @Test public void testUpdate() throws Exception { TransportClient client = getClient(); IndexRequest indexRequest = new IndexRequest("crm", "user", "1"); Map map = new HashMap(); map.put("name", "kobe"); map.put("age", 18); //不存在就新增,存在就更新 UpdateRequest upsert = new UpdateRequest("crm", "user", "1").doc(map).upsert(indexRequest); client.update(upsert).get(); client.close(); } /** * 删除 */ @Test public void testDelete() throws Exception { TransportClient client = getClient(); client.prepareDelete("crm","user","1").get(); client.close(); } /** * 批量操作 */ @Test public void testBulk() throws Exception { TransportClient client = getClient(); BulkRequestBuilder bulk = client.prepareBulk(); for (int i = 1; i < 51; i++) { Map map = new HashMap(); map.put("name", "xx" + i); map.put("age", i); bulk.add(client.prepareIndex("crm", "user", "" + i).setSource(map)); } BulkResponse response = bulk.get(); if (response.hasFailures()) { System.out.println("插入失败!"); } client.close(); } /** * DSL过滤(分页,过滤,排序) */ @Test public void testDsl() throws Exception { TransportClient client = getClient(); //得到builder SearchRequestBuilder builder = client.prepareSearch("crm").setTypes("user"); //得到boolQuery对象 BoolQueryBuilder boolQuery = QueryBuilders.boolQuery(); //得到must List<QueryBuilder> must = boolQuery.must(); must.add(QueryBuilders.matchAllQuery()); //添加filter过滤器 boolQuery.filter(QueryBuilders.rangeQuery("age").gte(18).lte(48)); builder.setQuery(boolQuery); //添加分页 builder.setFrom(0); builder.setSize(10); //设置排序 builder.addSort("age", SortOrder.ASC); //设置查询字段 builder.setFetchSource(new String[]{"name","age"}, null); //取值 SearchResponse searchResponse = builder.get(); //得到查询内容 SearchHits hits = searchResponse.getHits(); //得到命中数据,返回数组 SearchHit[] hitsHits = hits.getHits(); //循环数组,打印获取值 for (SearchHit hitsHit : hitsHits) { System.out.println(hitsHit.getSource()); } client.close(); } }
最近,一个名叫 Magi 的搜索引擎成了重点关注对象,据称这个搜索引擎和我们常见的搜索引擎很不一样,有一种程序员们钟爱的 X 冷淡风格。于是我们打开 Magi 看了看。确实,这个页面看着就很让人舒爽。