Elasticsearch7.x

主要课程内容
Elasticsearch 是一个分布式的 开源搜索和分析引擎
第一部分:全文搜索引擎Elasticsearch基础
ES是什么 功能 特点 使用场景 搜索方案对比 版本介绍 环境搭建
第二部分:玩转Elasticsearch之入门使用
核心概念(索引 类型 映射 ) API介绍 Kibana安装使用 IK分词器 索引操作 映射操作 文档操作
第三部分:玩转Elasticsearch之高级应用
映射高级(地理坐标类型 动态映射 自定义映射) DSL(全部匹配 全文搜索(match query string phrase ) 词条匹配(范围 正则 模糊 id ) 复合搜索高亮 分页 批处理)Filter 定位非法搜索以及原因 聚合操作 零停机索引重建方案 智能搜索建议 SpringBoot访问ES (RestClient)
第四部分:玩转Elasticsearch之企业级高可用分布式集群
集群核心概念(cluster node 分片 副本 ) ES整体结构 集群搭建 head插件安装查看集群
集群规划 集群调优策略
第五部分:玩转Elasticsearch之数据模型构建
数据模型 数据建模过程 数据建模意义 mapping映射和建模 关联关系处理
第六部分:玩转Elasticsearch之搜索实战
职位搜索 数据从MySQL导入到ES ES的搜索
第七部分:玩转Elasticsearch之深度应用及原理剖析
文档写入和近实时搜索的原理 文件合并机制 并发冲突处理 分布式数据一致性如何保证 文档索引和搜索过程 相关性得分算法BM25 doc_values Query文档搜索机制剖析 Filter过滤机制剖析 控制搜索精准度bulk操作json格式和底层优化关系 深度分页性能问题

第一部分 全文搜索引擎Elasticsearch基础

第1节 Elasticsearch是什么

Elaticsearch简称为ES,是一个开源的可扩展的分布式的全文检索引擎,它可以近乎实时的存储、检索数据。本身扩展性很好,可扩展到上百台服务器,处理PB级别的数据。ES使用Java开发并使用Lucene作为其核心来实现索引和搜索的功能,但是它通过简单的RestfulAPI和javaAPI来隐藏Lucene的复杂性,从而让全文搜索变得简单。
Elasticsearch官网:官网
起源:Shay Banon。2004年失业,陪老婆去伦敦学习厨师。失业在家帮老婆写一个菜谱搜索引擎。封装了lucene,做出了开源项目compass。找到工作后,做分布式高性能项目,再封装compass,写出了elasticsearch,使得lucene支持分布式。现在是Elasticsearch创始人兼Elastic首席执行官。

第2节 Elasticsearch的功能

分布式的搜索引擎
分布式:Elasticsearch自动将海量数据分散到多台服务器上去存储和检索
搜索:百度、谷歌,站内搜索
全文检索
提供模糊搜索等自动度很高的查询方式,并进行相关性排名,高亮等功能
数据分析引擎(分组聚合)
电商网站,最近一周笔记本电脑这种商品销量排名top10的商家有哪些?新闻网站,最近1个月访问量排名top3的新闻板块是哪些
对海量数据进行近实时的处理
海量数据的处理:因为是分布式架构,Elasticsearch可以采用大量的服务器去存储和检索数据,自然而然就可以实现海量数据的处理
近实时:Elasticsearch可以实现秒级别的数据搜索和分析

第3节 Elasticsearch的特点

Elasticsearch的特点是它提供了一个极速的搜索体验。这源于它的高速(speed)。相比较其它的一些大数据引擎,Elasticsearch可以实现秒级的搜索,速度非常有优势。Elasticsearch的cluster是一种分布式的部署,极易扩展(scale )这样很容易使它处理PB级的数据库容量。最重要的是Elasticsearch是它搜索的结果可以按照分数进行排序,它能提供我们最相关的搜索结果(relevance) 。
在这里插入图片描述

  1. 安装方便:没有其他依赖,下载后安装非常方便;只用修改几个参数就可以搭建起来一个集群
  2. JSON:输入/输出格式为 JSON,意味着不需要定义 Schema,快捷方便
  3. RESTful:基本所有操作 ( 索引、查询、甚至是配置 ) 都可以通过 HTTP 接口进行
  4. 分布式:节点对外表现对等(每个节点都可以用来做入口) 加入节点自动负载均衡
  5. 多租户:可根据不同的用途分索引,可以同时操作多个索引
  6. 支持超大数据: 可以扩展到 PB 级的结构化和非结构化数据 海量数据的近实时处理

第4节 Elasticsearch企业使用场景

1.常见场景
1. 搜索类场景
比如说电商网站、招聘网站、新闻资讯类网站、各种app内的搜索。
2. 日志分析类场景
经典的ELK组合(Elasticsearch/Logstash/Kibana),可以完成日志收集,日志存储,日志分析查询界面基本功能,目前该方案的实现很普及,大部分企业日志分析系统使用了该方案。
3. 数据预警平台及数据分析场景
例如电商价格预警,在支持的电商平台设置价格预警,当优惠的价格低于某个值时,触发通知消息,通知用户购买。
数据分析常见的比如分析电商平台销售量top 10的品牌,分析博客系统、头条网站top 10关注度、评论数、访问量的内容等等。
4. 商业BI(Business Intelligence)系统
比如大型零售超市,需要分析上一季度用户消费金额,年龄段,每天各时间段到店人数分布等信息,输出相应的报表数据,并预测下一季度的热卖商品,根据年龄段定向推荐适宜产品。
Elasticsearch执行数据分析和挖掘,Kibana做数据可视化。
2.常见案例
维基百科、百度百科:有全文检索、高亮、搜索推荐功能
stack overflow:有全文检索,可以根据报错关键信息,去搜索解决方法。
github:从上千亿行代码中搜索你想要的关键代码和项目。
日志分析系统:各企业内部搭建的ELK平台。

第5节 主流全文搜索方案对比

Lucene、Solr、Elasticsearch是目前主流的全文搜索方案,基于倒排索引机制完成快速全文搜索。
在这里插入图片描述
Lucene
Lucene是Apache基金会维护的一套完全使用Java编写的信息搜索工具包(Jar包),它包含了索引结构、读写索引工具、相关性工具、排序等功能,因此在使用Lucene时仍需要我们自己进一步开发搜索引擎系统,例如数据获取、解析、分词等方面的东西。
注意:Lucene只是一个框架,我们需要在Java程序中集成它再使用。而且需要很多的学习才能明白它是如何运行的,熟练运用Lucene非常复杂。
Solr
Solr是一个有HTTP接口的基于Lucene的查询服务器,是一个搜索引擎系统,封装了很多Lucene细节,Solr可以直接利用HTTP GET/POST请求去查询,维护修改索引。
Elasticsearch
Elasticsearch也是一个建立在全文搜索引擎 Apache Lucene基础上的搜索引擎。采用的策略是分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
三者之间的区别和联系
Solr和Elasticsearch都是基于Lucene实现的。但Solr和Elasticsearch之间也是有区别的
1)Solr利用Zookpper进行分布式管理,而Elasticsearch自身带有分布式协调管理功能
2)Solr比Elasticsearch实现更加全面,Solr官方提供的功能更多,而Elasticsearch本身更注重于核心功能, 高级功能多由第三方插件提供
3)Solr在传统的搜索应用中表现好于Elasticsearch,而Elasticsearch在实时搜索应用方面比Solr表现好
https://db-engines.com/en/ranking

第6节 Elasticsearch的版本

1.Elasticsearch版本介绍

Elasticsearch 主流版本为5.x , 6.x及7.x版本
7.x 更新的内容如下

  1. 集群连接变化:TransportClient被废弃
以至于,es7的java代码,只能使用restclient。对于java编程,建议采用 High-level-rest-client 的方式操作ES集群。High-level REST client 已删除接受Header参数的API方法,Cluster Health API默认为集群级别。
  1. ES数据存储结构变化:简化了Type 默认使用_doc
es6时,官方就提到了es7会逐渐删除索引type,并且es6时已经规定每一个index只能有一个type。在es7中使用默认的_doc作为type,官方说在8.x版本会彻底移除type。api请求方式也发送变化,如获得某索引的某ID的文档:GET index/_doc/id其中index和id为具体的值
  1. ES程序包默认打包jdk:以至于7.x版本的程序包大小突然增大了200MB+, 对比6.x发现,包大了200MB+, 正是JDK的大小
  2. 默认配置变化:默认节点名称为主机名,默认分片数改为1,不再是5。
  3. Lucene升级为lucene 8 查询相关性速度优化:Weak-AND算法 es可以看过是分布式lucene,lucene的性能直接决定es的性能。lucene8在top k及其他查询上有很大的性能提升。
weak-and算法 核心原理:取TOP N结果集,估算命中记录数。
TOP N的时候会跳过得分低于10000的文档来达到更快的性能。
  1. 间隔查询(Intervals queries): intervals query 允许用户精确控制查询词在文档中出现的先后关系,实现了对terms顺序、terms之间的距离以及它们之间的包含关系的灵活控制。
  2. 引入新的集群协调子系统 移除 minimum_master_nodes 参数,让 Elasticsearch 自己选择可以形成仲裁的节点。
  3. 7.0将不会再有OOM的情况,JVM引入了新的circuit breaker(熔断)机制,当查询或聚合的数据量超出单机处理的最大内存限制时会被截断。设置indices.breaker.fielddata.limit的默认值已从JVM堆大小的60%降低到40%。
  4. 分片搜索空闲时跳过refresh
    以前版本的数据插入,每一秒都会有refresh动作,这使得es能成为一个近实时的搜索引擎。但是当没有查询需求的时候,该动作会使得es的资源得到较大的浪费。

2.Elasticsearch与其他软件兼容

2.1Elasticsearch与操作系统

链接在这里插入图片描述
链接
在这里插入图片描述

第7节 Elasticseach Single-Node Mode快速部署

Elasticsearch是一个分布式全文搜索引擎,支持单节点模式(Single-Node Mode)和集群模式(Cluster Mode)部署,一般来说,小公司的业务场景往往使用Single-Node Mode部署即可。课程中我们先以 Single-Node Mode部署实例学习,随后再专门讲授集群模式相关内容。

  1. 虚拟机环境准备
    准备一台虚拟机
    操作系统:CentOS 7.x 64 bit
    客户端连接工具:XShell
    关闭虚拟机的防火墙
systemctl stop firewalld.service   #停止firewall
systemctl disable firewalld.service  #禁止firewall开机启动
firewall-cmd --state   # 查看防火墙
  1. Elasticsearch Single-Node Mode部署
    我们在虚拟机上部署Single-Node Mode Elasticsearch
    下载Elasticsearch
    地址: https://www.elastic.co/cn/downloads/elasticsearch 最新版本
    下载: https://www.elastic.co/cn/downloads/past-releases/elasticsearch-7.3…0 版本
    选择Linux版本下载:
    在这里插入图片描述
    开始安装JDK
    1.解压三个tar.gz文件
tar -zxvf jdk-8u171-linux-x64.tar.gz
tar -zxvf elasticsearch-7.3.0-linux-x86_64.tar.gz

2.移动文件到安装目录

mv /root/jdk1.8.0_171 /usr/java/
mv /root/elasticsearch-7.3.0  /usr/elasticsearch/

3.配置jdk环境变量

vim /etc/profile

在profile结尾添加如下内容:

JAVA_HOME=/usr/java
JRE_HOME=/usr/java/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export JAVA_HOME JRE_HOME CLASS_PATH PATH



source /etc/profile
java -version

jdk配置完成!

配置Elasticsearch
1.编辑vim /usr/elasticsearch/config/elasticsearch.yml ,注意冒号后面有个空格。

vim /usr/elasticsearch/config/elasticsearch.yml

单机安装请取消注释:node.name: node-1,否则无法正常启动。
修改网络和端口,取消注释master节点,单机只保留一个node

node.name: node-1
network.host: 192.168.211.136
#
# Set a custom port for HTTP:
#
http.port: 9200
cluster.initial_master_nodes: ["node-1"]

2.按需修改vim /usr/elasticsearch/config/jvm.options内存设置

vim /usr/elasticsearch/config/jvm.options

根据实际情况修改占用内存,默认都是1G,单机1G内存,启动会占用700m+然后在安装kibana后,基本上无法运行了,运行了一会就挂了报内存不足。 内存设置超出物理内存,也会无法启动,启动报错。

-Xms1g
-Xmx1g

3.添加es用户,es默认root用户无法启动,需要改为其他用户

useradd estest
修改密码
passwd  estest

改变es目录拥有者账号

chown -R estest /usr/elasticsearch/

4.修改/etc/sysctl.conf

vim /etc/sysctl.conf

末尾添加:vm.max_map_count=655360
执行sysctl -p 让其生效

sysctl -p

5.修改/etc/security/limits.conf

vim /etc/security/limits.conf

末尾添加:

*        soft  nofile      65536
*        hard  nofile      65536
*        soft  nproc      4096
*        hard  nproc      4096

6.启动es
切换刚刚新建的用户

su estest

启动命令

/usr/elasticsearch/bin/elasticsearch

7.配置完成:浏览器访问测试。 ip:9200

第二部分 玩转Elasticsearch之入门使用

Elasticsearch是基于Lucene的全文检索引擎,本质也是存储和检索数据。ES中的很多概念与MySQL类似 我们可以按照关系型数据库的经验去理解。

第1节 核心概念

索引(index)
类似的数据放在一个索引,非类似的数据放不同索引, 一个索引也可以理解成一个关系型数据库。
类型(type)
代表document属于index中的哪个类别(type)也有一种说法一种type就像是数据库的表,比如dept表,user表。

注意ES每个大版本之间区别很大:
ES 5.x中一个index可以有多种type。
ES 6.x中一个index只能有一种type。
ES 7.x以后 要逐渐移除type这个概念。
映射(mapping)
mapping定义了每个字段的类型等信息。相当于关系型数据库中的表结构。
常用数据类型:text、keyword、number、array、range、boolean、date、geo_point、ip、nested、object
https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-types.html#_multi_fields_2
在这里插入图片描述

第2节 Elasticsearch API介绍

Elasticsearch提供了Rest风格的API,即http请求接口,而且也提供了各种语言的客户端API。
Rest风格API
文档地址:https://www.elastic.co/guide/en/elasticsearch/reference/current/index.html
在这里插入图片描述
客户端API
Elasticsearch支持的语言客户端非常多:https://www.elastic.co/guide/en/elasticsearch/client/index.html,我们在实战时将使用到Java客户端
API
在这里插入图片描述
ElasticSearch没有自带图形化界面,我们可以通过安装ElasticSearch的图形化插件,完成图形化界面的效果,完成索引数据的查看,比如可视化插件Kibana。

第3节 安装配置kibana

1.什么是Kibana
Kibana是一个基于Node.js的Elasticsearch索引库数据统计工具,可以利用Elasticsearch的聚合功能,生成各种图表,如柱形图,线状图,饼图等。
而且还提供了操作Elasticsearch索引数据的控制台,并且提供了一定的API提示,非常有利于我们学习Elasticsearch的语法。
在这里插入图片描述
2.安装Kibana
1)下载Kibana在这里插入图片描述
kibana与操作系统
在这里插入图片描述
2) 安装kibana
root账户下操作
tar -zxvf kibana-7.3.0-linux-x86_64.tar.gz
mv /root/kibana-7.3.0-linux-x86_64 /usr/kibana/
改变es目录拥有者账号

chown -R estest /usr/kibana/

还需要设置访问权限

chmod -R  777  /usr/kibana/

修改配置文件

vim /usr/kibana/config/kibana.yml

修改端口,访问ip,elasticsearch服务器ip

server.port: 5601
server.host: "0.0.0.0"
# The URLs of the Elasticsearch instances to use for all your queries.elasticsearch.hosts: ["http://192.168.211.136:9200"]

配置完成启动:

切换用户
su estest
./bin/kibana(路径:/usr/kibana)

没有error错误启动成功:
在这里插入图片描述
访问ip:5601,即可看到安装成功
在这里插入图片描述
已全部安装完成,然后可以接入数据使用了。
3) kidbana使用页面
选择左侧的DevTools菜单,即可进入控制台页面:
在这里插入图片描述
在这里插入图片描述
在页面右侧,我们就可以输入请求,访问Elasticsearch了。
在这里插入图片描述
4 )扩展kibana dev tools快捷键:
ctrl+enter 提交请求
ctrl+i 自动缩进

第4节 Elasticsearch集成IK分词器

  1. 集成IK分词器
    IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版
    开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词
    和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于
    Lucene项目,同时提供了对Lucene的默认优化实现。
    IK分词器3.0的特性如下:
    1)采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
    2)采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数
    量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
    3)支持个人词条的优化的词典存储,更小的内存占用。
    4)支持用户词典扩展定义。
    5)针对Lucene全文检索优化的查询分析器IKQueryParser;采用歧义分析算法优化查询关键字的搜索
    排列组合,能极大的提高Lucene检索的命中率
    下载地址:
    https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.3.0
    下载插件并安装(安装方式一)
    1)在elasticsearch的bin目录下执行以下命令,es插件管理器会自动帮我们安装,然后等待安装完成:
/usr/elasticsearch/bin/elasticsearch-plugin install
https://github.com/medcl/elasticsearch-analysis-
ik/releases/download/v7.3.0/elasticsearch-analysis-ik-7.3.0.zip

2)下载完成后会提示 Continue with installation?输入 y 即可完成安装
3)重启Elasticsearch 和Kibana
上传安装包安装 (安装方式二)
1)在elasticsearch安装目录的plugins目录下新建 analysis-ik 目录

#新建analysis-ik文件夹
mkdir analysis-ik
#切换至 analysis-ik文件夹下
cd analysis-ik
#上传资料中的 elasticsearch-analysis-ik-7.3.0.zip
#解压
unzip elasticsearch-analysis-ik-7.3.3.zip
#解压完成后删除zip
rm -rf elasticsearch-analysis-ik-7.3.0.zip

2)重启Elasticsearch 和Kibana
测试案例
IK分词器有两种分词模式:ik_max_word和ik_smart模式。
1)ik_max_word (常用)
会将文本做最细粒度的拆分
2)ik_smart
会做最粗粒度的拆分
大家先不管语法,我们先在Kibana测试一波输入下面的请求:

POST  _analyze
{
 "analyzer": "ik_max_word",
 "text": "南京市长江大桥"
}

ik_max_word 分词模式运行得到结果:

{
"tokens": [{
"token": "南京市",
"start_offset": 0,
"end_offset": 3,
"type": "CN_WORD",
"position": 0
},
{
"token": "南京",
"start_offset": 0,
"end_offset": 2,
"type": "CN_WORD",
"position": 1
},
{
"token": "市长",
"start_offset": 2,
"end_offset": 4,
"type": "CN_WORD",
"position": 2
},
{
"token": "长江大桥",
"start_offset": 3,
"end_offset": 7,
"type": "CN_WORD",
"position": 3
},
{
"token": "长江",
"start_offset": 3,
"end_offset": 5,
"type": "CN_WORD",
"position": 4
},
{
"token": "大桥",
"start_offset": 5,
"end_offset": 7,
"type": "CN_WORD",
"position": 5
}
]}
POST  _analyze
{
 "analyzer": "ik_smart",
 "text": "南京市长江大桥"
}

ik_smart分词模式运行得到结果:

{
"tokens": [{
"token": "南京市",
"start_offset": 0,
"end_offset": 3,
"type": "CN_WORD",
"position": 0
},
{
"token": "长江大桥",
"start_offset": 3,
"end_offset": 7,
"type": "CN_WORD",
"position": 1
}
]
}

如果现在假如江大桥是一个人名,是南京市市长,那么上面的分词显然是不合理的,该怎么办?
2 扩展词典使用
扩展词:就是不想让哪些词被分开,让他们分成一个词。比如上面的江大桥
自定义扩展词库
1)进入到 config/analysis-ik/(插件命令安装方式) 或 plugins/analysis-ik/config(安装包安装方式) 目录下, 新增自定义词典
vim lagou_ext_dict.dic
输入 :江大桥
2)将我们自定义的扩展词典文件添加到IKAnalyzer.cfg.xml配置中
vim IKAnalyzer.cfg.xml

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
    <comment>IK Analyzer 扩展配置</comment>
    <!--用户可以在这里配置自己的扩展字典 -->
    <entry key="ext_dict">lagou_ext_dict.dic</entry>
    <!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords">lagou_stop_dict.dic</entry>
    <!--用户可以在这里配置远程扩展字典 -->
    <!-- <entry
key="remote_ext_dict">http://192.168.211.130:8080/tag.dic</entry> -->
    <!--用户可以在这里配置远程扩展停止词字典-->
    <!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>

3)重启Elasticsearch
3 停用词典使用
停用词:有些词在文本中出现的频率非常高。但对本文的语义产生不了多大的影响。例如英文的a、an、the、of等。或中文的”的、了、呢等”。这样的词称为停用词。停用词经常被过滤掉,不会被进行索引。在检索的过程中,如果用户的查询词中含有停用词,系统会自动过滤掉。停用词可以加快索引的速度,减少索引库文件的大小。
自定义停用词库
1)进入到 config/analysis-ik/(插件命令安装方式) 或 plugins/analysis-ik/config(安装包安装方式) 目录下, 新增自定义词典
vim lagou_stop_dict.dic
输入



2)将我们自定义的停用词典文件添加到IKAnalyzer.cfg.xml配置中
3)重启Elasticsearch
4 同义词典使用
语言博大精深,有很多相同意思的词,我们称之为同义词,比如“番茄”和“西红柿”,“馒头”和“馍”等。在
搜索的时候,我们输入的可能是“番茄”,但是应该把含有“西红柿”的数据一起查询出来,这种情况叫做
同义词查询。
注意:扩展词和停用词是在索引的时候使用,而同义词是检索时候使用。
配置IK同义词
Elasticsearch 自带一个名为 synonym 的同义词 filter。为了能让 IK 和 synonym 同时工作,我们需要
定义新的 analyzer,用 IK 做 tokenizer,synonym 做 filter。听上去很复杂,实际上要做的只是加一段
配置。
1)创建/config/analysis-ik/synonym.txt 文件,输入一些同义词并存为 utf-8 格式。例如
lagou,拉勾
china,中国
1)创建索引时,使用同义词配置,示例模板如下

PUT /索引名称
{
"settings": {
"analysis": {
"filter": {
"word_sync": {
"type": "synonym",
"synonyms_path": "analysis-ik/synonym.txt"
}
},
"analyzer": {
"ik_sync_max_word": {
"filter": [
"word_sync"
],
"type": "custom",
"tokenizer": "ik_max_word"
},"ik_sync_smart": {
"filter": [
"word_sync"
],
"type": "custom",
"tokenizer": "ik_smart"
}
}
}
},
"mappings": {
"properties": {
"字段名": {
"type": "字段类型",
"analyzer": "ik_sync_smart",
"search_analyzer": "ik_sync_smart"
}
}
}
}

以上配置定义了ik_sync_max_word和ik_sync_smart这两个新的 analyzer,对应 IK 的 ik_max_word 和ik_smart 两种分词策略。ik_sync_max_word和 ik_sync_smart都会使用 synonym filter 实现同义词转换
3)到此,索引创建模板中同义词配置完成,搜索时指定分词为ik_sync_max_word或ik_sync_smart。
4)案例

PUT /lagou-es-synonym
{
"settings": {
"analysis": {
"filter": {
"word_sync": {
"type": "synonym",
"synonyms_path": "analysis-ik/synonym.txt"
}
},
"analyzer": {
"ik_sync_max_word": {
"filter": [
"word_sync"
],
"type": "custom",
"tokenizer": "ik_max_word"
},"ik_sync_smart": {
"filter": [
"word_sync"
],
"type": "custom",
"tokenizer": "ik_smart"
}
}
}
},
"mappings": {
"properties": {
"name": {
"type": "text",
"analyzer": "ik_sync_max_word",
"search_analyzer": "ik_sync_max_word"
}
}
}
}

插入数据

POST /lagou-es-synonym/_doc/1
{
 "name":"拉勾是中国专业的互联网招聘平台"
}

使用同义词"lagou"或者“china”进行搜索

POST /lagou-es-synonym/_doc/_search
{
 "query": {
  "match": {
   "name": "lagou"
 }
}
}

在这里插入图片描述

第5节 索引操作(创建、查看、删除)

  1. 创建索引库
    Elasticsearch采用Rest风格API,因此其API就是一次http请求,你可以用任何工具发起http请求
    语法
PUT /索引名称
{
 "settings": {
  "属性名": "属性值"
}
}

settings:就是索引库设置,其中可以定义索引库的各种属性 比如分片数 副本数等,目前我们可以不设置,都走默认

示例
PUT /lagou-company-index
在这里插入图片描述
可以看到索引创建成功了。
2. 判断索引是否存在
语法
HEAD /索引名称
示例 HEAD /lagou-company-index
在这里插入图片描述
3.查看索引
Get请求可以帮我们查看索引的相关属性信息,格式:
查看单个索引
语法
GET /索引名称
示例 GET /lagou-company-index
在这里插入图片描述
批量查看索引
语法
GET /索引名称1,索引名称2,索引名称3,…
示例 GET /lagou-company-index,lagou-employee-index
在这里插入图片描述
查看所有索引
方式一
GET _all
在这里插入图片描述
方式二
GET /_cat/indices?v
在这里插入图片描述
绿色:索引的所有分片都正常分配。
黄色:至少有一个副本没有得到正确的分配。
红色:至少有一个主分片没有得到正确的分配。
4. 打开索引
语法
POST /索引名称/_open
在这里插入图片描述
5.关闭索引
语法
POST /索引名称/_close
在这里插入图片描述
6. 删除索引库
删除索引使用DELETE请求
语法
DELETE /索引名称1,索引名称2,索引名称3…
在这里插入图片描述
再次查看,返回索引不存在
在这里插入图片描述

第6节 映射操作

索引创建之后,等于有了关系型数据库中的database。Elasticsearch7.x取消了索引type类型的设置,
不允许指定类型,默认为_doc,但字段仍然是有的,我们需要设置字段的约束信息,叫做字段映射
(mapping)
字段的约束包括但不限于:
字段的数据类型
是否要存储
是否要索引
分词器
我们一起来看下创建的语法。
1.创建映射字段
语法

PUT /索引库名/_mapping
{
 "properties": {
  "字段名": {
   "type": "类型",
   "index": true,
   "store": true,
   "analyzer": "分词器"
 }
}
}

https://www.elastic.co/guide/en/elasticsearch/reference/7.3/mapping-params.html
字段名:任意填写,下面指定许多属性,例如:
type:类型,可以是text、long、short、date、integer、object等
index:是否索引,默认为true
store:是否存储,默认为false
analyzer:指定分词器
示例
发起请求:

PUT /lagou-company-index
PUT /lagou-company-index/_mapping/
{
 "properties": {
  "name": {
   "type": "text",
   "analyzer": "ik_max_word"
 },
  "job": {
   "type": "text",
   "analyzer": "ik_max_word"
 },
  "logo": {
   "type": "keyword",
   "index": "false"
 },
  "payment": {
   "type": "float"
 }
}
}

响应结果:
在这里插入图片描述
上述案例中,就给lagou-company-index这个索引库设置了4个字段:
name:企业名称
job: 需求岗位
logo:logo图片地址
payment:薪资
并且给这些字段设置了一些属性,至于这些属性对应的含义,我们在后续会详细介绍。
2.映射属性详解
1)type
Elasticsearch中支持的数据类型非常丰富:
在这里插入图片描述
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/mapping-types.html
我们说几个关键的:
String类型,又分两种:
text:可分词,不可参与聚合
keyword:不可分词,数据会作为完整字段进行匹配,可以参与聚合
Numerical:数值类型,分两类
基本数据类型:long、interger、short、byte、double、float、half_float
浮点数的高精度类型:scaled_float
需要指定一个精度因子,比如10或100。elasticsearch会把真实值乘以这个因子后存储,取出时再原。
Date:日期类型
elasticsearch可以对日期格式化为字符串存储,但是建议我们存储为毫秒值,存储为long,节省空间。
Array:数组类型
进行匹配时,任意一个元素满足,都认为满足排序时,如果升序则用数组中的最小值来排序,如果降序则用数组中的最大值来排序
Object:对象

{
  name:"Jack",
  age:21,
 girl:{
name: "Rose", age:21
 }
}

如果存储到索引库的是对象类型,例如上面的girl,会把girl变成两个字段:girl.name和girl.age
2)index
index影响字段的索引情况。
true:字段会被索引,则可以用来进行搜索。默认值就是true
false:字段不会被索引,不能用来搜索
index的默认值就是true,也就是说你不进行任何配置,所有字段都会被索引。
但是有些字段是我们不希望被索引的,比如企业的logo图片地址,就需要手动设置index为false。
3)store
是否将数据进行独立存储。
原始的文本会存储在 _source 里面,默认情况下其他提取出来的字段都不是独立存储的,是从
_source 里面提取出来的。当然你也可以独立的存储某个字段,只要设置store:true即可,获取独立存
储的字段要比从_source中解析快得多,但是也会占用更多的空间,所以要根据实际业务需求来设置,
默认为false。
4)analyzer:指定分词器
一般我们处理中文会选择ik分词器 ik_max_word ik_smart
3.查看映射关系
查看单个索引映射关系
语法:
GET /索引名称/_mapping
示例:
在这里插入图片描述
响应:
查看所有索引映射关系
方式一
GET _mapping
方式二
GET _all/_mapping
修改索引映射关系
语法

PUT /索引库名/_mapping
{
 "properties": {
  "字段名": {
   "type": "类型",
   "index": true,
   "store": true,
   "analyzer": "分词器"
 }
}
}

注意:修改映射增加字段 做其它更改只能删除索引 重新建立映射
4.一次性创建索引和映射
刚才 的案例中我们是把创建索引库和映射分开来做,其实也可以在创建索引库的同时,直接制定索引库中的索引,基本语法:

put /索引库名称
{
  "settings":{
    "索引库属性名":"索引库属性值"
 },
  "mappings":{
    "properties":{
      "字段名":{
      "映射属性名":"映射属性值"
     }
   }
 }
}

案例

PUT /lagou-employee-index
{
 "settings": {},
 "mappings": {
   "properties": {
    "name": {
     "type": "text",
     "analyzer": "ik_max_word"
   }
  }
}
}

第7节 文档增删改查及局部更新

文档,即索引库中的数据,会根据规则创建索引,将来用于搜索。可以类比做数据库中的一行数据。

  1. 新增文档
    新增文档时,涉及到id的创建方式,手动指定或者自动生成。
    新增文档(手动指定id)
    语法
    POST /索引名称/_doc/{id}
    示例
POST  /lagou-company-index/_doc/1
{
  "name" : "百度",
  "job" : "小度用户运营经理",
  "payment" : "30000",
  "logo" :
"http://www.lgstatic.com/thubnail_120x120/i/image/M00/21/3E/CgpFT1kVdzeAJNbU
AABJB7x9sm8374.png"
}

在这里插入图片描述
新增文档(自动生成id
语法
POST /索引名称/_doc
{
“field”:“value”
}
在这里插入图片描述
可以看到结果显示为: created ,代表创建成功。
另外,需要注意的是,在响应结果中有个 _id 字段,这个就是这条文档数据的 唯一标识 ,以后的增删改查都依赖这个_id作为唯一标示,这里是Elasticsearch帮我们随机生成的id。
2. 查看单个文档
语法
GET /索引名称/_doc/{id}
示例
GET /lagou-company-index/_doc/1
在这里插入图片描述
文档元数据解读:
在这里插入图片描述
3. 查看所有文档
语法

POST /索引名称/_search
{
 "query":{
  "match_all": {
 }
}
}
  1. _source定制返回结果
    某些业务场景下,我们不需要搜索引擎返回source中的所有字段,可以使用source进行定制,如下,多个字段之间使用逗号分隔
    GET /lagou-company-index/_doc/1?_source=name,job
    在这里插入图片描述
  2. 更新文档(全部更新)
    把刚才新增的请求方式改为PUT,就是修改了,不过修改必须指定id
    id对应文档存在,则修改
    id对应文档不存在,则新增
    比如,我们把使用id为3,不存在,则应该是新增
{
 "_index" : "lagou-company-index",
 "_type" : "_doc",
 "_id" : "3",
 "_version" : 1,
 "result" : "created",
 "_shards" : {
  "total" : 2,
  "successful" : 1,
  "failed" : 0
},
 "_seq_no" : 2,
 "_primary_term" : 1
}

可以看到是 created ,是新增。
我们再次执行刚才的请求,不过把数据改一下
在这里插入图片描述
可以看到结果是: updated ,显然是更新数据
6. 更新文档(局部更新)
Elasticsearch可以使用PUT或者POST对文档进行更新(全部更新),如果指定ID的文档已经存在,则执行更新操作。
注意:Elasticsearch执行更新操作的时候,Elasticsearch首先将旧的文档标记为删除状态,然后添加新的文档,旧的文档不会立即消失,但是你也无法访问,Elasticsearch会在你继续添加更多数据的时候在后台清理已经标记为删除状态的文档。
全部更新,是直接把之前的老数据,标记为删除状态,然后,再添加一条更新的(使用PUT或者POST)
局域更新,只是修改某个字段(使用POST)
语法

POST /索引名/_update/{id}
{
"doc":{
"field":"value"
}
}

在这里插入图片描述
7. 删除文档
根据id进行删除:
语法
DELETE /索引名/_doc/{id}
在这里插入图片描述
可以看到结果是: deleted ,显然是删除数据
根据查询条件进行删除
语法

POST /索引库名/_delete_by_query
{
"query": {
 "match": {
  "字段名": "搜索关键字"
 }
}
}

示例:

POST /lagou-company-index/_delete_by_query
{
 "query":{
  "match":{
   "name":"1"
 }
}
}

结果

{
 "took" : 14,
 "timed_out" : false,
 "total" : 1,
 "deleted" : 1,
 "batches" : 1,
 "version_conflicts" : 0,
 "noops" : 0,
 "retries" : {
  "bulk" : 0,
  "search" : 0
},
 "throttled_millis" : 0,
 "requests_per_second" : -1.0,
 "throttled_until_millis" : 0,
 "failures" : [ ]
}

删除所有文档

POST  索引名/_delete_by_query
{
 "query": {
  "match_all": {}
}
}
  1. 文档的全量替换、强制创建
    全量替换
    语法与创建文档是一样的,如果文档id不存在,那么就是创建;如果文档id已经存在,那么就是全量替换操作,替换文档的json串内容;
    文档是不可变的,如果要修改文档的内容,第一种方式就是全量替换,直接对文档重新建立索引,替换里面所有的内容,elasticsearch会将老的文档标记为deleted,然后新增我们给定的一个文档,当我们创建越来越多的文档的时候,elasticsearch会在适当的时机在后台自动
    删除标记为deleted的文档
    强制创建
    PUT /index/_doc/{id}?op_type=create {},PUT /index/_doc/{id}/_create {}
    如果id 存在就会报错

第三部分 玩转Elasticsearch之高级应用

第1节 映射高级

  1. 地理坐标点数据类型
    地理坐标点
    地理坐标点是指地球表面可以用经纬度描述的一个点。 地理坐标点可以用来计算两个坐标间的距离,还可以判断一个坐标是否在一个区域中。地理坐标点需要显式声明对应字段类型为 geo_point :
    示例:
PUT /company-locations
{
 "mappings": {
   "properties": {
     "name": {
       "type": "text"
    },
     "location": {
       "type": "geo_point"
    }
  }
}
}

经纬度坐标格式
如上例, location 字段被声明为 geo_point 后,我们就可以索引包含了经纬度信息的文档了。 经纬度信息的形式可以是字符串、数组或者对象

# 字符串形式
PUT /company-locations/_doc/1
{
 "name":"NetEase",
 "location":"40.715,74.011"
}
# 对象形式
PUT /company-locations/_doc/2
{
 "name":"Sina",
 "location":{
   "lat":40.722,
   "lon":73.989
 }
}
# 数组形式
PUT /company-locations/_doc/3
{
 "name":"Baidu",
 "location":[73.983,40.719]
}

注意
字符串形式以半角逗号分割,如 “lat,lon”
对象形式显式命名为 lat 和 lon
数组形式表示为 [lon,lat]
通过地理坐标点过滤
有四种地理坐标点相关的过滤器 可以用来选中或者排除文档
在这里插入图片描述
geo_bounding_box查询
这是目前为止最有效的地理坐标过滤器了,因为它计算起来非常简单。 你指定一个矩形的顶部 ,底部 , 左边界和右边界,然后过滤器只需判断坐标的经度是否在左右边界之间,纬度是否在上下边界之间
然后可以使用 geo_bounding_box 过滤器执行以下查询

GET /company-locations/_search
{
  "query": {
   "bool" : {
     "must" : {
       "match_all" : {}
    },
      "filter" : {
      "geo_bounding_box" : {
          "location" : {
            "top_left" : {
              "lat" : 40.73,
              "lon" : 71.12
           },
            "bottom_right" : {
              "lat" : 40.01,
              "lon" : 74.1
           }
         }
       }
     }
   }
 }
}

location这些坐标也可以用 bottom_left 和 top_right 来表示
geo_distance
过滤仅包含与地理位置相距特定距离内的匹配的文档。假设以下映射和索引文档 然后可以使用 geo_distance 过滤器执行以下查询

GET /company-locations/_search
{
  "query": {
    "bool" : {
     "must" : {
        "match_all" : {}
    },
      "filter" : {
        "geo_distance" : {
          "distance" : "200km",
          "location" : {
            "lat" : 40,
            "lon" : 70
         }
       }
     }
   }
 }
}

2.动态映射
Elasticsearch在遇到文档中以前未遇到的字段,可以使用dynamic mapping(动态映射机制) 来确定字段的数据类型并自动把新的字段添加到类型映射。
Elastic的动态映射机制可以进行开关控制,通过设置mappings的dynamic属性,dynamic有如下设置项

true:遇到陌生字段就执行dynamic mapping处理机制
false:遇到陌生字段就忽略
strict:遇到陌生字段就报错

# 设置为报错
PUT /user
{
"settings":{
"number_of_shards": 3,
"number_of_replicas": 0
},
"mappings":{
"dynamic": "strict",
"properties": {
"name": {"type": "text"},
"address": {"type": "object", "dynamic": true}
}
}
}
# 插入以下文档,将会报错
# user索引层设置dynamic是strict,在user层内设置age将报错
# 在address层设置dynamic是ture,将动态映射生成字段
PUT /user/_doc/1
{
"name": "lisi",
"age": "20",
"address": {
"province": "beijing",
"city": "beijing"   
}
}
PUT /user
{
"settings":{
"number_of_shards": 3,
"number_of_replicas": 0
},
"mappings":{
"dynamic": true,
"properties": {
"name": {"type": "text"},
"address": {"type": "object", "dynamic": true}
}
}
}

3.自定义动态映射
如果你想在运行时增加新的字段,你可能会启用动态映射。 然而,有时候,动态映射 规则 可能不太智能。幸运的是,我们可以通过设置去自定义这些规则,以便更好的适用于你的数据。
日期检测
当 Elasticsearch 遇到一个新的字符串字段时,它会检测这个字段是否包含一个可识别的日期,比如2014-01-01 如果它像日期,这个字段就会被作为 date 类型添加。否则,它会被作为 string 类型添加。有些时候这个行为可能导致一些问题。想象下,你有如下这样的一个文档:
{ “note”: “2014-01-01” }
假设这是第一次识别 note 字段,它会被添加为 date 字段。但是如果下一个文档像这样:{ “note”: “Logged out” }
这显然不是一个日期,但为时已晚。这个字段已经是一个日期类型,这个 不合法的日期 将会造成一个异常。
日期检测可以通过在根对象上设置 date_detection 为 false 来关闭

PUT  /my_index/_doc/1
{ "note": "2014-01-01" }
PUT  /my_index/_doc/1
{ "note": "Logged out" }
PUT /my_index
{
  "mappings": {
    "date_detection": false
 }
}

使用这个映射,字符串将始终作为 string 类型。如果需要一个 date 字段,必须手动添加。Elasticsearch 判断字符串为日期的规则可以通过 dynamic_date_formats setting 来设置。

PUT /my_index
{
  "mappings": {
      "dynamic_date_formats": "MM/dd/yyyy"    
 }
}
PUT  /my_index/_doc/1
{ "note": "2014-01-01" }
PUT  /my_index/_doc/1
{ "note": "01/01/2014" }

dynamic_templates
使用 dynamic_templates 可以完全控制新生成字段的映射,甚至可以通过字段名称或数据类型来应用不同的映射。每个模板都有一个名称,你可以用来描述这个模板的用途,一个 mapping 来指定映射应
该怎样使用,以及至少一个参数 (如 match) 来定义这个模板适用于哪个字段。
模板按照顺序来检测;第一个匹配的模板会被启用。例如,我们给 string 类型字段定义两个模板:
es :以 _es 结尾的字段名需要使用 spanish 分词器。
en :所有其他字段使用 english 分词器。
我们将 es 模板放在第一位,因为它比匹配所有字符串字段的 en 模板更特殊:

PUT /my_index2
{
 "mappings": {
  "dynamic_templates": [
  {
  "es": {
     "match": "*_es",
     "match_mapping_type": "string",
     "mapping": {
      "type": "text",
      "analyzer": "spanish"
    }
   }
  },
  {
    "en": {
     "match": "*",
     "match_mapping_type": "string",
     "mapping": {
      "type": "text",
      "analyzer": "english"
    }
   }
  }
 ]
}
}

PUT /my_index2/_doc/1
{
 "name_es":"testes",
 "name":"es"
}

1)匹配字段名以 _es 结尾的字段
2)匹配其他所有字符串类型字段
match_mapping_type 允许你应用模板到特定类型的字段上,就像有标准动态映射规则检测的一样 (例如 string 或 long)
match参数只匹配字段名称,path_match 参数匹配字段在对象上的完整路径,所以 address.*.name将匹配这样的字段

{
 "address": {
   "city": {
     "name": "New York"
   }
 }
}

第2节 Query DSL

https://www.elastic.co/guide/en/elasticsearch/reference/7.3/query-dsl.html
Elasticsearch提供了基于JSON的完整查询DSL(Domain Specific Language 特定域的语言)来定义查询。将查询DSL视为查询的AST(抽象语法树),它由两种子句组成:
叶子查询子句
叶子查询子句 在特定域中寻找特定的值,如 match,term或 range查询。
复合查询子句
复合查询子句包装其他叶子查询或复合查询,并用于以逻辑方式组合多个查询(例如 bool或dis_max查询),或更改其行为(例如 constant_score查询)。
我们在使用ElasticSearch的时候,避免不了使用DSL语句去查询,就像使用关系型数据库的时候要学会SQL语法一样。如果我们学习好了DSL语法的使用,那么在日后使用和使用Java Client调用时候也会变得非常简单。
基本语法

POST /索引库名/_search
{
  "query":{
    "查询类型":{
      "查询条件":"查询条件值"
   }
 }
}

这里的query代表一个查询对象,里面可以有不同的查询属性
查询类型:
例如: match_all , match , term , range 等等
查询条件:查询条件会根据类型的不同,写法也有差异,后面详细讲解

1. 查询所有(match_all query)

示例

POST /lagou-company-index/_search
{
 "query":{
   "match_all": {}
 }
}

query :代表查询对象
match_all :代表查询所有
结果
took:查询花费时间,单位是毫秒
time_out:是否超时
_shards:分片信息
hits:搜索结果总览对象
total:搜索到的总条数
max_score:所有结果中文档得分的最高分
hits:搜索结果的文档对象数组,每个元素是一条搜索到的文档信息
_index:索引库
_type:文档类型
_id:文档id
_score:文档得分
_source:文档的源数据

2. 全文搜索(full-text query)

全文搜索能够搜索已分析的文本字段,如电子邮件正文,商品描述等。使用索引期间应用于字段的同一
分析器处理查询字符串。全文搜索的分类很多 几个典型的如下:

2.2.1 匹配搜索(match query)

全文查询的标准查询,它可以对一个字段进行模糊、短语查询。 match queries 接收
text/numerics/dates, 对它们进行分词分析, 再组织成一个boolean查询。可通过operator 指定bool组
合操作(or、and 默认是 or )。
现在,索引库中有2部手机,1台电视;

PUT /lagou-property
{
 "settings": {},
 "mappings": {
   "properties": {
    "title": {
     "type": "text",
     "analyzer": "ik_max_word"
   },
    "images": {
     "type": "keyword"
   },
    "price": {
     "type": "float"
   } 
  }
}
}
POST  /lagou-property/_doc/
{
  "title": "小米电视4A",
   "images": "http://image.lagou.com/12479122.jpg",
   "price": 4288
}
POST  /lagou-property/_doc/
{
  "title": "小米手机",
  "images": "http://image.lagou.com/12479622.jpg",
   "price": 2699
}
POST  /lagou-property/_doc/
{
  "title": "华为手机",
   "images": "http://image.lagou.com/12479922.jpg",
   "price": 5699
}

or关系
match 类型查询,会把查询条件进行分词,然后进行查询,多个词条之间是or的关系

POST /lagou-property/_search
{
  "query":{
    "match":{
      "title":"小米电视4A"
   }
 }
}

结果:

{
 "took" : 695,
 "timed_out" : false,
 "_shards" : {
  "total" : 1,
  "successful" : 1,
  "skipped" : 0,
  "failed" : 0
},
 "hits" : {
  "total" : {
   "value" : 2,
   "relation" : "eq"
 },
  "max_score" : 2.8330114,
  "hits" : [
  {
    "_index" : "lagou-property",
    "_type" : "_doc",
    "_id" : "UKcMCnQB7BOR-NcQDHX4",
    "_score" : 2.8330114,
    "_source" : {
     "title" : "小米电视4A",
     "images" : "http://image.lagou.com/12479122.jpg",
     "price" : 4288
   }
  },
  {
    "_index" : "lagou-property",
    "_type" : "_doc",
    "_id" : "UacMCnQB7BOR-NcQGnUb",
    "_score" : 0.52354836,
    "_source" : {
     "title" : "小米手机",
     "images" : "http://image.lagou.com/12479622.jpg",
     "price" : 2699
   }
  }
 ]
}
}

在上面的案例中,不仅会查询到电视,而且与小米相关的都会查询到,多个词之间是 or 的关系。
and关系
某些情况下,我们需要更精确查找,我们希望这个关系变成 and ,可以这样做:

POST /lagou-property/_search
{"query": {"match": {
 "title": {"query": "小米电视4A","operator": "and"}
}}}

结果:

{
 "took" : 20,
 "timed_out" : false,
 "_shards" : {
  "total" : 1,
  "successful" : 1,
  "skipped" : 0,
  "failed" : 0
},
 "hits" : {
  "total" : {
   "value" : 1,
   "relation" : "eq"
 },
  "max_score" : 2.8330114,
  "hits" : [
  {
    "_index" : "lagou-property",
    "_type" : "_doc",
    "_id" : "UKcMCnQB7BOR-NcQDHX4",
    "_score" : 2.8330114,
    "_source" : {
     "title" : "小米电视4A",
     "images" : "http://image.lagou.com/12479122.jpg",
     "price" : 4288
   }
  }
 ]
}
}

本例中,只有同时包含 小米 和 电视 的词条才会被搜索到。

2.2.2 短语搜索(match phrase query)

match_phrase 查询用来对一个字段进行短语查询,可以指定 analyzer、slop移动因子

GET /lagou-property/_search
{
 "query": {
  "match_phrase": {
  "title": "小米电视"
 }
}
}
GET /lagou-property/_search
{
 "query": {
  "match_phrase": {
   "title": "小米 4A"
 }
}
}
GET  /lagou-property/_search
{
 "query": {
  "match_phrase": {
   "title": {
    "query": "小米 4A",
    "slop": 2
  }
 }
}
}
2.2.3 query_string 查询

Query String Query提供了无需指定某字段而对文档全文进行匹配查询的一个高级查询,同时可以指定在哪些字段上进行匹配。

# 默认 和 指定字段
GET /lagou-property/_search
{
  "query": {
    "query_string" : {
      "query" : "2699"
   }
 }
}
GET /lagou-property/_search
{
  "query": {
    "query_string" : {
      "query" : "2699",
      "default_field" : "title"
   }
 }
}
# 逻辑查询
GET /lagou-property/_search
{
  "query": {
    "query_string" : {
      "query" : "手机 OR 小米",
      "default_field" : "title"
      }
 }
}
GET /lagou-property/_search
{
  "query": {
    "query_string" : {
      "query" : "手机 AND 小米",
      "default_field" : "title"
   }
 }
}
# 模糊查询
GET /lagou-property/_search
{
  "query": {
    "query_string" : {
      "query" : "大米~1",
      "default_field" : "title"
   }
 }
}
# 多字段支持
GET  /lagou-property/_search
{
 "query": {
   "query_string" : {
     "query":"2699",
     "fields": [ "title","price"]
   }
 }
}

2.2.4 多字段匹配搜索(multi match query)

如果你需要在多个字段上进行文本搜索,可用multi_match 。multi_match在 match的基础上支持对多个字段进行文本查询。

GET /lagou-property/_search
{
 "query": {
  "multi_match" : {
   "query":"2699",
   "fields": [ "title","price"]
 }
}
}

还可以使用*匹配多个字段:

GET /lagou-property/_search
{
 "query": {
  "multi_match" : {
   "query":"http://image.lagou.com/12479622.jpg",
   "fields": [ "title","ima*"]
 }
}
}

  1. 词条级搜索(term-level queries)
    可以使用term-level queries根据结构化数据中的精确值查找文档。结构化数据的值包括日期范围、IP地址、价格或产品ID。
    与全文查询不同,term-level queries不分析搜索词。相反,词条与存储在字段级别中的术语完全匹配。
PUT /book
{
 "settings": {},
 "mappings" : {
   "properties" : {
    "description" : {
     "type" : "text",
     "analyzer" : "ik_max_word"
   },
    "name" : {
     "type" : "text",
     "analyzer" : "ik_max_word"
   },
    "price" : {
     "type" : "float"
   },
    "timestamp" : {
     "type" : "date",
     "format" : "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
   }
  }
 }
}
PUT /book/_doc/1
{
"name": "lucene",
"description": "Lucene Core is a Java library providing powerful indexing and
search features, as well as spellchecking, hit highlighting and advanced
analysis/tokenization capabilities. The PyLucene sub project provides Python
bindings for Lucene Core. ",
"price":100.45,
"timestamp":"2020-08-21 19:11:35"
}
PUT /book/_doc/2
{
"name": "solr",
"description": "Solr is highly scalable, providing fully fault tolerant
distributed indexing, search and analytics. It exposes Lucenes features through
easy to use JSON/HTTP interfaces or native clients for Java and other
languages.",
"price":320.45,
"timestamp":"2020-07-21 17:11:35"
}
PUT /book/_doc/3
{
"name": "Hadoop",
"description": "The Apache Hadoop software library is a framework that allows
for the distributed processing of large data sets across clusters of computers
using simple programming models.",
"price":620.45,
"timestamp":"2020-08-22 19:18:35"
}
PUT /book/_doc/4
{
"name": "ElasticSearch",
"description": "Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力
的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为Apache许可条
款下的开放源码发布,是一种流行的企业级搜索引擎。Elasticsearch用于云计算中,能够达到实时搜
索,稳定,可靠,快速,安装使用方便。官方客户端在Java、.NET(C#)、PHP、Python、Apache
Groovy、Ruby和许多其他语言中都是可用的。根据DB-Engines的排名显示,Elasticsearch是最受欢
迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene。",
"price":999.99,
"timestamp":"2020-08-15 10:11:35"
}
  1. 词条搜索(term query)
    term 查询用于查询指定字段包含某个词项的文档
POST /book/_search
{
 "query": {
  "term" : { "name" : "solr" }
}
}
  1. 词条集合搜索(terms query)
    terms 查询用于查询指定字段包含某些词项的文档
GET /book/_search
{
  "query": {
    "terms" : { "name" : ["solr", "elasticsearch"]}
 }
}
  1. 范围搜索(range query)
    gte:大于等于
    gt:大于
    lte:小于等于
    lt:小于
    boost:查询权重
GET /book/_search
{
  "query": {
    "range" : {
      "price" : {
        "gte" : 10,
        "lte" : 200,
        "boost" : 2.0
     }
   }
 }
}
GET /book/_search
{
  "query": {
    "range" : {
      "timestamp" : {
        "gte" : "now-2d/d", 
        "lt" :  "now/d" 
     }
   }
 }
}
GET book/_search
{
  "query": {
    "range" : {
      "timestamp" : {
        "gte": "18/08/2020",
        "lte": "2021",
        "format": "dd/MM/yyyy||yyyy"
     }
   }
 }
}
  1. 不为空搜索(exists query)
    查询指定字段值不为空的文档。相当 SQL 中的 column is not null
GET /book/_search
{
  "query": {
    "exists" : { "field" : "price" }
  }
}
  1. 词项前缀搜索(prefix query)
GET /book/_search
{ "query": {
  "prefix" : { "name" : "so" }
}
}

  1. 通配符搜索(wildcard query)
GET /book/_search
{
  "query": {
    "wildcard" : { "name" : "so*r" }
 }
}
GET /book/_search
{
 "query": {
  "wildcard": {
   "name": {
    "value": "lu*",
    "boost": 2
  }
 }
}
}
  1. 正则搜索(regexp query)
    regexp允许使用正则表达式进行term查询.注意regexp如果使用不正确,会给服务器带来很严重的性能压力。比如.*开头的查询,将会匹配所有的倒排索引中的关键字,这几乎相当于全表扫描,会很慢。因此如果可以的话,最好在使用正则前,加上匹配的前缀。
GET /book/_search
{
  "query": {
    "regexp":{
      "name": "s.*"
   }
 }
}
GET /book/_search
{
  "query": {
    "regexp":{"name":{
        "value":"s.*",
        "boost":1.2
     }
   }
 }
}
  1. 模糊搜索(fuzzy query)
GET /book/_search
{
  "query": {
   "fuzzy" : { "name" : "so" }
 }
}
GET /book/_search
{
  "query": {
    "fuzzy" : {
      "name" : {
        "value": "so",
        "boost": 1.0,
        "fuzziness": 2
     }
   }
 }
}
GET /book/_search
{
  "query": {
    "fuzzy" : {
      "name" : {
        "value": "sorl",
        "boost": 1.0,
        "fuzziness": 2
     }
   }
 }
}
  1. ids搜索(id集合查询)
GET /book/_search
{
  "query": {
    "ids" : {
      "type" : "_doc",
      "values" : ["1", "3"]
   }
 }
}

  1. 复合搜索(compound query)
  1. constant_score query
    用来包装另一个查询,将查询匹配的文档的评分设为一个常值
GET /book/_search
{
  "query": {
    "term" : { "description" : "solr"}
  }
}
GET /book/_search
{
  "query": {
    "constant_score" : {
      "filter" : {
        "term" : { "description" : "solr"}
     },
      "boost" : 1.2
   }
 }
}

  1. 布尔搜索(bool query)
    bool 查询用bool操作来组合多个查询字句为一个查询。 可用的关键字:
    must:必须满足
    filter:必须满足,但执行的是filter上下文,不参与、不影响评分
    should:或
    must_not:必须不满足,在filter上下文中执行,不参与、不影响评分
POST /book/_search
{
 "query": {
  "bool" : {
   "must" : {
    "match" : { "description" : "java" }
  },
   "filter": {
    "term" : { "name" : "solr" }
  },
   "must_not" : {
    "range" : {
     "price" : { "gte" : 200, "lte" : 300 }
   }
  },
   "minimum_should_match" : 1,
   "boost" : 1.0
 }
}
}

minimum_should_match代表了最小匹配精度,如果设置minimum_should_match=1,那么should语句中至少需要有一个条件满足。
5.排序
相关性评分排序
默认情况下,返回的结果是按照 相关性 进行排序的——最相关的文档排在最前。 在本章的后面部分,我们会解释 相关性 意味着什么以及它是如何计算的, 不过让我们首先看看 sort 参数以及如何使用它。
为了按照相关性来排序,需要将相关性表示为一个数值。在 Elasticsearch 中, 相关性得分 由一个浮点数进行表示,并在搜索结果中通过 _score 参数返回, 默认排序是 _score 降序,按照相关性评分升序排序如下

POST /book/_search
{
 "query": {
  "match": {"description":"solr"}
}
}
POST /book/_search
{
 "query": {
  "match": {"description":"solr"}
},
 "sort": [
 {"_score": {"order": "asc"}}
]
}

字段值排序

POST /book/_search
{
 "query": {
  "match_all": {}
},
 "sort": [
 {"price": {"order": "desc"}}
]
}

多级排序
假定我们想要结合使用 price和 _score(得分) 进行查询,并且匹配的结果首先按照价格排序,然后按照相关性得分排序:

POST /book/_search
{
  "query":{
    "match_all":{}
 },
  "sort": [
  { "price": { "order": "desc" }},
  { "timestamp": { "order": "desc" }}
 ]
}

6.分页
Elasticsearch中实现分页的语法非常简单:

POST /book/_search
{
 "query": {
  "match_all": {}
},
 "size": 2,
 "from": 0
}
POST /book/_search
{
 "query": {
  "match_all": {}
},
 "sort": [
 {"price": {"order": "desc"}}
],
 "size": 2,
 "from": 2
}

size:每页显示多少条
from:当前页起始索引, int start = (pageNum - 1) * size
7.高亮
Elasticsearch中实现高亮的语法比较简单:

POST /book/_search
{
 "query": {
  "match": {
   "name": "elasticsearch"
 }
},
 "highlight": {
  "pre_tags": "<font color='pink'>",
  "post_tags": "</font>",
  "fields": [{"name":{}}]
}
}
POST /book/_search
{
 "query": {
  "match": {
   "name": "elasticsearch"
 }
},
 "highlight": {
  "pre_tags": "<font color='pink'>",
  "post_tags": "</font>",
  "fields": [{"name":{}},{"description":{}}]
}
}
POST /book/_search
{
 "query": {
  "query_string" : {
    "query" : "elasticsearch"
 }
},
 "highlight": {
  "pre_tags": "<font color='pink'>",
  "post_tags": "</font>",
  "fields": [{"name":{}},{"description":{}}]
}
}

在使用match查询的同时,加上一个highlight属性:
pre_tags:前置标签
post_tags:后置标签
fields:需要高亮的字段
name:这里声明title字段需要高亮,后面可以为这个字段设置特有配置,也可以空
结果:

{
 "took" : 7,
 "timed_out" : false,
 "_shards" : {
  "total" : 1,
  "successful" : 1,
  "skipped" : 0,
  "failed" : 0
},
 "hits" : {
  "total" : {
   "value" : 1,
   "relation" : "eq"
 },
  "max_score" : 1.6153753,
  "hits" : [
  {
    "_index" : "book",
    "_type" : "_doc",
    "_id" : "4",
    "_score" : 1.6153753,
    "_source" : {
     "name" : "ElasticSearch",
     "description" : "Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布
式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为
Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。Elasticsearch用于云计算中,能够
达到实时搜索,稳定,可靠,快速,安装使用方便。官方客户端在Java、.NET(C#)、PHP、Python、
Apache Groovy、Ruby和许多其他语言中都是可用的。根据DB-Engines的排名显示,Elasticsearch
是最受欢迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene。",
     "price" : 999.99,
     "timestamp" : "2020-08-15 10:11:35"
   },
    "highlight" : {
     "name" : [
      "<font color='pink'>ElasticSearch</font>"
    ],
     "description" : [
      "<font color='pink'>Elasticsearch</font>是一个基于Lucene的搜索服务器。它
提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。",
      "<font color='pink'>Elasticsearch</font>是用Java语言开发的,并作为
Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。",
      "<font color='pink'>Elasticsearch</font>用于云计算中,能够达到实时搜索,
稳定,可靠,快速,安装使用方便。",
      "根据DB-Engines的排名显示,<font color='pink'>Elasticsearch</font>是最
受欢迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene。"
    ]
   }
  }
 ]
}
}

8.文档批量操作(bulk 和 mget)
mget 批量查询
单条查询 GET /test_index/_doc/1,如果查询多个id的文档一条一条查询,网络开销太大。

GET /_mget
{
 "docs" : [
  {
    "_index" : "book",
    "_id" :   1
  },
  {
    "_index" : "book",
    "_id" :   2
  }
 ]
}

返回:

{
 "docs" : [
 {
   "_index" : "book",
   "_type" : "_doc",
   "_id" : "1",
   "_version" : 1,
   "_seq_no" : 0,
   "_primary_term" : 1,
   "found" : true,
   "_source" : {
    "name" : "lucene",
    "description" : "Lucene Core is a Java library providing powerful
indexing and search features, as well as spellchecking, hit highlighting and
advanced analysis/tokenization capabilities. The PyLucene sub project provides
Python bindings for Lucene Core. ",
    "price" : 100.45,
    "timestamp" : "2020-08-21 19:11:35"
  }
 },
 {
   "_index" : "book",
   "_type" : "_doc",
   "_id" : "2",
   "_version" : 1,
   "_seq_no" : 1,
   "_primary_term" : 1,
   "found" : true,
   "_source" : {
    "name" : "solr",
    "description" : "Solr is highly scalable, providing fully fault tolerant
distributed indexing, search and analytics. It exposes Lucenes features through
easy to use JSON/HTTP interfaces or native clients for Java and other
languages.",
    "price" : 320.45,
    "timestamp" : "2020-07-21 17:11:35"
  }
 }
]
}

同一索引下批量查询:

GET /book/_mget
{
 "docs" : [
  {
    "_id" :  2
  },
  {
    "_id" :  3
  }
 ]
}

搜索简化写法

POST /book/_search
{
 "query": {
   "ids" : {
     "values" : ["1", "4"]
   }
 }
}

bulk 批量增删改
Bulk 操作解释将文档的增删改查一些列操作,通过一次请求全都做完。减少网络传输次数。语法:

POST /_bulk
{"action": {"metadata"}}
{"data"}

如下操作,删除1,新增5,修改2。

POST /_bulk
{ "delete": { "_index": "book",  "_id": "1" }}
{ "create": { "_index": "book",  "_id": "5" }}
{ "name": "test14","price":100.99 }
{ "update": { "_index": "book",  "_id": "2"} }
{ "doc" : {"name" : "test"} }

功能:
delete:删除一个文档,只要1个json串就可以了 删除的批量操作不需要请求体
create:相当于强制创建 PUT /index/type/id/_create
index:普通的put操作,可以是创建文档,也可以是全量替换文档
update:执行的是局部更新partial update操作
格式:每个json不能换行。相邻json必须换行。
隔离:每个操作互不影响。操作失败的行会返回其失败信息。
实际用法:bulk请求一次不要太大,否则一下积压到内存中,性能会下降。所以,一次请求几千个操作、大小在几M正好。
bulk会将要处理的数据载入内存中,所以数据量是有限的,最佳的数据两不是一个确定的数据,它取决于你的硬件,你的文档大小以及复杂性,你的索引以及搜索的负载。
一般建议是1000-5000个文档,大小建议是5-15MB,默认不能超过100M,可以在es的配置文件(ES的config下的elasticsearch.yml)中配置。http.max_content_length: 10mb

第3节 Filter DSL

Elasticsearch中的所有的查询都会触发相关度得分的计算。对于那些我们不需要相关度得分的场景下,
Elasticsearch以过滤器的形式提供了另一种查询功能,过滤器在概念上类似于查询,但是它们有非常快的执行速度,执行速度快主要有以下两个原因:
过滤器不会计算相关度的得分,所以它们在计算上更快一些。
过滤器可以被缓存到内存中,这使得在重复的搜索查询上,其要比相应的查询快出许多。
为了理解过滤器,可以将一个查询(像是match_all,match,bool等)和一个过滤器结合起来。我们以范围过滤器为例,它允许我们通过一个区间的值来过滤文档。这通常被用在数字和日期的过滤上。
下面这个例子使用一个被过滤的查询,其返回price值是在200到1000之间(闭区间)的书。

POST /book/_search
{
 "query": {
  "filtered": {
   "query": {
    "match_all": {}
  },
   "filter": {
    "range": {
     "price": {
      "gte": 200,
      "lte": 1000
    }
   }
  }
 }
}
}
#5.0 之后的写法
POST /book/_search
{
 "query": {
  "bool": {
   "must": {
    "match_all": {}
  },
   "filter": {
    "range": {
     "price": {
      "gte": 200,
      "lte": 1000
    }
    }
  }
 }
}
}

分解上面的例子,被过滤的查询包含一个match_all查询(查询部分)和一个过滤器(filter部分)。我们可以在查询部分中放入其他查询,在filter部分放入其它过滤器。在上面的应用场景中,由于所有的在这个范围之内的文档都是平等的(或者说相关度都是一样的),没有一个文档比另一个文档更相关,所以这个时候使用范围过滤器就非常合适了。通常情况下,要决定是使用过滤器还是使用查询,你就需要问自己是否需要相关度得分。如果相关度是不重要的,使用过滤器,否则使用查询。查询和过滤器在概念上类似于SELECT WHERE语句。

第4节 定位非法搜索及原因

在开发的时候,我们可能会写到上百行的查询语句,如果出错的话,找起来很麻烦,Elasticsearch提供了帮助开发人员定位不合法的查询的api _validate

GET /book/_search?explain
{
 "query": {
  "match1": {
   "name": "test"
 }
}
}
使用 validate
GET /book/_validate/query?explain
{
 "query": {
  "match1": {
   "name": "test"
 }
}
}

返回结果

{
  "valid":false,
  "error":"org.elasticsearch.common.ParsingException: no [query] registered for
[match1]"
}

在查询时,不小心把 match 写成了 match1 ,通过 validate api 可以清楚的看到错误原因
正确查询返回

{
 "_shards" : {
  "total" : 1,
   "successful" : 1,
  "failed" : 0
},
 "valid" : true,
 "explanations" : [
 {
   "index" : "book",
   "valid" : true,
   "explanation" : "name:test"
 }
]
}

第5节 聚合分析
1.聚合介绍
聚合分析是数据库中重要的功能特性,完成对一个查询的数据集中数据的聚合计算,如:找出某字段(或计算表达式的结果)的最大值、最小值,计算和、平均值等。Elasticsearch作为搜索引擎兼数据库,同样提供了强大的聚合分析能力。
对一个数据集求最大、最小、和、平均值等指标的聚合,在ES中称为指标聚合 metric而关系型数据库中除了有聚合函数外,还可以对查询出的数据进行分组group by,再在组上进行指标聚合。在 ES 中group by 称为分桶,桶聚合 bucketing
Elasticsearch聚合分析语法
在查询请求体中以aggregations节点按如下语法定义聚合分析:

"aggregations" : {
  "<aggregation_name>" : { <!--聚合的名字 -->
    "<aggregation_type>" : { <!--聚合的类型 -->
      <aggregation_body> <!--聚合体:对哪些字段进行聚合 -->
   }
   [,"meta" : { [<meta_data_body>] } ]? <!--元 -->
   [,"aggregations" : { [<sub_aggregation>]+ } ]? <!--在聚合里面在定义子聚合 -
->
 }
 [,"<aggregation_name_2>" : { ... } ]*<!--聚合的名字 -->
}

说明:aggregations 也可简写为 aggs
2. 指标聚合
max min sum avg
示例一:查询所有书中最贵的

POST /book/_search
{
 "size": 0,
 "aggs": {
  "max_price": {
   "max": {
    "field": "price"
  }
 }
}
}

文档计数count
示例: 统计price大于100的文档数量

POST /book/_count
{
 "query": {
  "range": {
   "price" : {
    "gt":100
  }
 }
}
}

value_count 统计某字段有值的文档数

POST /book/_search?size=0
{
 "aggs": {
  "price_count": {
   "value_count": {
    "field": "price"
  }
 }
}
}

cardinality值去重计数 基数

POST /book/_search?size=0
{
 "aggs": {
  "_id_count": {
   "cardinality": {
    "field": "_id"
  }
 },
  "price_count": {
   "cardinality": {
    "field": "price"
  }
   }
}
}

stats 统计 count max min avg sum 5个值

POST /book/_search?size=0
{
 "aggs": {
  "price_stats": {
   "stats": {
    "field": "price"
  }
 }
}
}

Extended stats
高级统计,比stats多4个统计结果: 平方和、方差、标准差、平均值加/减两个标准差的区间

POST /book/_search?size=0
{
 "aggs": {
  "price_stats": {
   "extended_stats": {
    "field": "price"
  }
 }
}
}

Percentiles 占比百分位对应的值统计

POST /book/_search?size=0
{
 "aggs": {
  "price_percents": {
   "percentiles": {
    "field": "price"
  }
 }
}
}

指定分位值

POST /book/_search?size=0
{
 "aggs": {
  "price_percents": {
   "percentiles": {
    "field": "price",
    "percents" : [75, 99, 99.9]
  }
 }
}
}

Percentiles rank 统计值小于等于指定值的文档占比
统计price小于100和200的文档的占比

POST /book/_search?size=0
{
 "aggs": {
  "gge_perc_rank": {
   "percentile_ranks": {
    "field": "price",
    "values": [
     100,200
   ]
  }
 }
}
}
  1. 桶聚合
    Bucket Aggregations,桶聚合。
    它执行的是对文档分组的操作(与sql中的group by类似),把满足相关特性的文档分到一个桶里,即桶分,输出结果往往是一个个包含多个文档的桶(一个桶就是一个group)
    bucket:一个数据分组
    metric:对一个数据分组执行的统计
POST /book/_search
{
 "size": 0,
 "aggs": {
  "group_by_price": {
   "range": {
    "field": "price",
    "ranges": [
    {
      "from": 0,
      "to": 200
    },
    {
      "from": 200,
      "to": 400
    },
  {
      "from": 400,
      "to": 1000
    }
   ]
  },
   "aggs": {
    "average_price": {
     "avg": {
      "field": "price"
    }
   }
  }
 }
}
}

值的个数统计

"count_price": {
  "value_count": {
 "field": "price"
 }
}

实现having 效果

POST /book/_search
{
 "size": 0,
 "aggs": {
  "group_by_price": {
   "range": {
    "field": "price",
    "ranges": [
    {
      "from": 0,
      "to": 200
    },
    {
      "from": 200,
      "to": 400
    },
    {
      "from": 400,
      "to": 1000
    }
   ]
  },
   "aggs": {
    "average_price": {
     "avg": {
      "field": "price"
    }
   },
    "having": {
     "bucket_selector": {
      "buckets_path": {
       "avg_price": "average_price"
     },
      "script": {
       "source": "params.avg_price >= 200 "
     }
    }
   }
  }
 }
}
}

第6节 玩转Elasticsearch零停机索引重建

1.说明
Elasticsearch是一个实时的分布式搜索引擎,为用户提供搜索服务,当我们决定存储某种数据时,在创建索引的时候需要数据结构完整确定下来,与此同时索引的设定和很多固定配置将不能改变。当需要改变数据结构时就需要重建索引,为此,Elasticsearch团队提供了辅助工具帮助开发人员进行索引重建。
零停机完成索引重建的三种方案
2.方案一:外部数据导入方案
1)整体介绍
系统架构设计中,有关系型数据库用来存储数据,Elasticsearch在系统架构里起到查询加速的作用,如果遇到索引重建的操作,待系统模块发布新版本后,可以从数据库将数据查询出来,重新灌到Elasticsearch即可。
2)执行步骤
建议的功能方案:数据库 + MQ + 应用模块 + Elasticsearch,可以在MQ控制台发送MQ消息来触发重导数据,按批次对数据进行导入,整个过程异步化处理,请求操作示意如下所示:
在这里插入图片描述
3)详细操作步骤:

  1. 通过MQ的web控制台或cli命令行,发送指定的MQ消息
  2. MQ消息被微服务模块的消费者消费,触发ES数据重新导入功能
  3. 微服务模块从数据库里查询数据的总数及批次信息,并将每个数据批次的分页信息重新发送给MQ消息,分页信息包含查询条件和偏移量,此MQ消息还是会被微服务的MQ消息者接收处理。
  4. 微服务根据接收的查询条件和分页信息,从数据库获取到数据后,根据索引结构的定义,将数据组装成ES支持的JSON格式,并执行bulk命令,将数据发送给Elasticsearch集群。
    这样就可以完成索引的重建工作。
    4)方案特点
    MQ中间件的选型不做具体要求,常见的rabitmq、activemq、rocketmq等均可。
    在微服务模块方面,提供MQ消息处理接口、数据处理模块需要事先开发的,一般是创建新的索引时,配套把重建的功能也一起做好。整体功能共用一个topic,针对每个索引,有单独的结构定义和MQ消息
    处理tag,代码尽可能复用。处理的批次大小需要根据实际的情况设置。
    微服务模块实例会部署多个,数据是分批处理的,批次信息会一次性全部先发送给MQ,各个实例处理的数据相互不重叠,利用MQ消息的异步处理机制,可以充分利用并发的优势,加快数据重建的速度。
    5)方案缺点
  5. 对数据库造成读取压力,短时间内大量的读操作,会占用数据库的硬件资源,严重时可能引起数据库性能下降。
  6. 网络带宽占用多,数据毕竟是从一个库传到另一个库,虽说是内网,但大量的数据传输带宽占用也需要注意。
  7. 数据重建时间稍长,跟迁移的数据量大小有关。 3.方案二:基于scroll+bulk+索引别名方案
    1)整体介绍
    利用Elasticsearch自带的一些工具完成索引的重建工作,当然在方案实际落地时,可能也会依赖客户端的一些功能,比如用Java客户端持续的做scroll查询、bulk命令的封装等。数据完全自给自足,不依赖其他数据源。
    2)执行步骤
    假设原索引名称是book,新的索引名称为book_new,Java客户端使用别名book_alias连接Elasticsearch,该别名指向原索引book。
  8. 若Java客户端没有使用别名,需要给客户端分配一个: PUT /book/_alias/book_alias
  9. 新建索引book_new,将mapping信息,settings信息等按新的要求全部定义好。
  10. 使用scroll api将数据批量查询出来
    为了使用 scroll,初始搜索请求应该在查询中指定 scroll 参数,这可以告诉 Elasticsearch 需要保持搜索的上下文环境多久,1m 就是一分钟。
GET /book/_search?scroll=1m
{
  "query": {
    "match_all": {}
 },
  "sort": ["_doc"],
  "size":  2
}
  1. 采用bulk api将scoll查出来的一批数据,批量写入新索引
POST /_bulk
{ "index": { "_index": "book_new", "_id": "对应的id值" }}
{ 查询出来的数据值 }
  1. 反复执行修改后的步骤3和步骤4,查询一批导入一批,以后可以借助Java Client或其他语言的API支持。
    注意做3时需要指定上一次查询的 scroll_id
GET /_search/scroll 
{
  "scroll": "1m",
  "scroll_id" : "步骤三中查询出来的值"
}

  1. 切换别名book_alias到新的索引book_new上面,此时Java客户端仍然使用别名访问,也不需要修改任何代码,不需要停机。 POST /_aliases
    {
    “actions”: [
    { “remove”: { “index”: “book”, “alias”: “book_alias” }},
    { “add”: { “index”: “book_new”, “alias”: “book_alias” }}
    ]
    }
  2. 验证别名查询的是否为新索引的数据 3)方案特点
    在数据传输上基本自给自足,不依赖于其他数据源,Java客户端不需要停机等待数据迁移,网络传输占
    用带宽较小。只是scroll查询和bulk提交这部分,数据量大时需要依赖一些客户端工具。
    4)补充一点
    在Java客户端或其他客户端访问Elasticsearch集群时,使用别名是一个好习惯。
    4.方案三:Reindex API方案
    Elasticsearch v6.3.1已经支持Reindex API,它对scroll、bulk做了一层封装,能够 对文档重建索引而不需要任何插件或外部工具。
    1)最基础的命令:
POST _reindex
{
 "source": {
  "index": "book"
},
 "dest": {
  "index": "book_new"
}
}

响应结果:

{
 "took": 180,
 "timed_out": false,
 "total": 4,
 "updated": 0,
 "created": 4,
 "deleted": 0,
 "batches": 1,
 "version_conflicts": 0,
 "noops": 0,
 "retries": {
  "bulk": 0,
  "search": 0
},
 "throttled_millis": 0,
 "requests_per_second": -1,
 "throttled_until_millis": 0,
 "failures": []
}

注意: 如果不手动创建新索引book_new的mapping信息,那么Elasticsearch将启动自动映射模板对数据进行类型映射,可能不是期望的类型,这点要注意一下。
2)version_type 属性
使用reindex api也是创建快照后再执行迁移的,这样目标索引的数据可能会与原索引有差异,version_type属性可以决定乐观锁并发处理的规则。reindex api可以设置version_type属性,如下:

POST _reindex
{
 "source": {
  "index": "book"
},
 "dest": {
  "index": "book_new",
  "version_type": "internal"
}
}

version_type属性含义如下:
internal:直接拷贝文档到目标索引,对相同的type、文档ID直接进行覆盖,默认值
external:迁移文档到目标索引时,保留version信息,对目标索引中不存在的文档进行创建,已存在的文档按version进行更新,遵循乐观锁
机制
3)op_type 属性和conflicts 属性
如果op_type设置为create,那么迁移时只在目标索引中创建ID不存在的文档,已存在的文档,会提示错误,如下请求:

POST _reindex
{
 "source": {
  "index": "book"
},
 "dest": {
  "index": "book_new",
  "op_type": "create"
}
}

有错误提示的响应,节选部分:

{
 "took": 11,
 "timed_out": false,
 "total": 5,
 "updated": 0,
 "created": 1,
 "deleted": 0,
 "batches": 1,
 "version_conflicts": 4,
 "noops": 0,
 "retries": {
  "bulk": 0,
  "search": 0
},
 "throttled_millis": 0,
 "requests_per_second": -1,
 "throttled_until_millis": 0,
 "failures": [
 {
   "index": "book_new",
   "type": "children"
   "id": "2",
   "cause": {
    "type": "version_conflict_engine_exception",
    "reason": "[children][2]: version conflict, document already exists
(current version [17])",
    "index_uuid": "dODetUbATTaRL-p8DAEzdA",
    "shard": "2",
    "index": "book_new"
  },
   "status": 409
 }
 ]
}

如果加上"conflicts": "proceed"配置项,那么冲突信息将不展示,只展示冲突的文档数量,请求和响应结果将变成这样:
请求:

POST _reindex
{
 "conflicts": "proceed",
 "source": {
  "index": "book"
},
 "dest": {
  "index": "book_new",
  "op_type": "create"
}
}

响应:

{
 "took": 12,
 "timed_out": false,
 "total": 5,
 "updated": 0,
 "created": 1,
 "deleted": 0,
 "batches": 1,
 "version_conflicts": 4,
 "noops": 0,
 "retries": {
  "bulk": 0,
  "search": 0
},
 "throttled_millis": 0,
 "requests_per_second": -1,
 "throttled_until_millis": 0,
 "failures": []
}

4)query支持
reindex api支持数据过滤、数据排序、size设置、_source选择等,也支持脚本执行,这里提供一个简单示例:

POST _reindex
{
 "size": 100,
 "source": {
  "index": "book",
  "query": {
   "term": {
    "language": "english"
  }
 },
  "sort": {
   "likes": "desc"
 }
},
 "dest": {
  "index": "book_new"
}
}

5.小结
零停机索引重建操作的三个方案,从自研功能、scroll+bulk到reindex,我们作为Elasticsearch的使用者,三个方案的参与度是逐渐弱化的,但稳定性却是逐渐上升的,我们需要清楚地去了解各个方案的优劣,适宜的场景,然后根据实际的情况去权衡,哪个方案更适合我们的业务模型.

第7节 玩转Elasticsearch Suggester智能搜索建议

现代的搜索引擎,一般会具备"Suggest As You Type"功能,即在用户输入搜索的过程中,进行自动补全或者纠错。 通过协助用户输入更精准的关键词,提高后续全文搜索阶段文档匹配的程度。例如在京东上输入部分关键词,甚至输入拼写错误的关键词时,它依然能够提示出用户想要输入的内容:
在这里插入图片描述
如果自己亲手去试一下,可以看到京东在用户刚开始输入的时候是自动补全的,而当输入到一定长度,
如果因为单词拼写错误无法补全,就开始尝试提示相似的词。
那么类似的功能在Elasticsearch里如何实现呢? 答案就在Suggesters API。 Suggesters基本的运作原理是将输入的文本分解为token,然后在索引的字典里查找相似的term并返回。 根据使用场景的不同,
Elasticsearch里设计了4种类别的Suggester,分别是:
Term Suggester
Phrase Suggester
Completion Suggester
Context Suggester
在官方的参考文档里,对这4种Suggester API都有比较详细的介绍,下面的案例将在Elasticsearch 7.x上通过示例讲解Suggester的基础用法,希望能帮助部分国内开发者快速用于实际项目开发。
首先来看一个Term Suggester的示例:
准备一个叫做blogs的索引,配置一个text字段

PUT /blogs/
{
 "mappings": {
  "properties": {
   "body": {
    "type": "text"
  }
 }
}
}

通过bulk api写入几条文档

POST _bulk/?refresh=true
{ "index" : { "_index" : "blogs" } }
{ "body": "Lucene is cool"}
{ "index" : { "_index" : "blogs" } }
{ "body": "Elasticsearch builds on top of lucene"}
{ "index" : { "_index" : "blogs" } }
{ "body": "Elasticsearch rocks"}
{ "index" : { "_index" : "blogs" } }
{ "body": "Elastic is the company behind ELK stack"}
{ "index" : { "_index" : "blogs" } }
{ "body": "elk rocks"}
{ "index" : { "_index" : "blogs"} }
{  "body": "elasticsearch is rock solid"}

此时blogs索引里已经有一些文档了,可以进行下一步的探索。为帮助理解,我们先看看哪些term会存在于词典里。
将输入的文本分析一下:

POST _analyze
{
 "text": [
  "Lucene is cool",
  "Elasticsearch builds on top of lucene",
  "Elasticsearch rocks",
  "Elastic is the company behind ELK stack",
  "elk rocks",
  "elasticsearch is rock solid"
]
}

这些分出来的token都会成为词典里一个term,注意有些token会出现多次,因此在倒排索引里记录的词频会比较高,同时记录的还有这些token在原文档里的偏移量和相对位置信息。
执行一次suggester搜索看看效果:

POST /blogs/_search
{
 "suggest": {
  "my-suggestion": {
   "text": "lucne rock",
   "term": {
    "suggest_mode": "missing",
    "field": "body"
  }
 }
}
}

suggest就是一种特殊类型的搜索,DSL内部的"text"指的是api调用方提供的文本,也就是通常用户界面上用户输入的内容。这里的lucne是错误的拼写,模拟用户输入错误。 "term"表示这是一个term
suggester。 “field"指定suggester针对的字段,另外有一个可选的"suggest_mode”。 范例里的"missing"实际上就是缺省值,它是什么意思?有点挠头… 还是先看看返回结果吧:

{
 "took": 1,
 "timed_out": false,
 "_shards": {
  "total": 1,
  "successful": 1,
  "failed": 0
},
 "hits": {
  "total": 0,
  "max_score": 0,
  "hits":
},
 "suggest": {
  "my-suggestion": [
  {
    "text": "lucne",
    "offset": 0,
    "length": 5,
    "options": [
    {
      "text": "lucene",
      "score": 0.8,
      "freq": 2
    }
   ]
  },
  {
    "text": "rock",
    "offset": 6,
    "length": 4,
    "options":
  }
 ]
 }
}

在返回结果里"suggest" -> “my-suggestion"部分包含了一个数组,每个数组项对应从输入文本分解出来的token(存放在"text"这个key里)以及为该token提供的建议词项(存放在options数组里)。 示例里返回了"lucne”,“rock"这2个词的建议项(options),其中"rock"的options是空的,表示没有可以建议的选项,为什么? 上面提到了,我们为查询提供的suggest mode是"missing”,由于"rock"在索引的词典里已经存在了,够精准,就不建议啦。 只有词典里找不到词,才会为其提供相似的选项。
如果将"suggest_mode"换成"popular"会是什么效果?
尝试一下,重新执行查询,返回结果里"rock"这个词的option不再是空的,而是建议为rocks。

"suggest": {
  "my-suggestion": [
  {
    "text": "lucne",
    "offset": 0,
    "length": 5,
    "options": [
    {
      "text": "lucene",
      "score": 0.8,
      "freq": 2
    }
   ]
  },
  {
    "text": "rock",
    "offset": 6,
    "length": 4,
    "options": [
    {
      "text": "rocks",
      "score": 0.75,
      "freq": 2
    }
   ]
  }
 ]
}

回想一下,rock和rocks在索引词典里都是有的。 不难看出即使用户输入的token在索引的词典里已经有了,但是因为存在一个词频更高的相似项,这个相似项可能是更合适的,就被挑选到options里了。
最后还有一个"always" mode,其含义是不管token是否存在于索引词典里都要给出相似项。有人可能会问,两个term的相似性是如何判断的? ES使用了一种叫做Levenstein edit distance的算法,其核心思想就是一个词改动多少个字符就可以和另外一个词一致。 Term suggester还有其他很多
可选参数来控制这个相似性的模糊程度,这里就不一一赘述了。
Phrase suggester在Term suggester的基础上,会考量多个term之间的关系,比如是否同时出现在索引的原文里,相邻程度,以及词频等等。看个范例就比较容易明白了:

POST /blogs/_search
{
 "suggest": {
  "my-suggestion": {
   "text": "lucne and elasticsear rock",
   "phrase": {
    "field": "body",
    "highlight": {
     "pre_tag": "<em>",
     "post_tag": "</em>"
   }
  }
 }
}
}

返回结果:

"suggest": {
  "my-suggestion": [
  {
    "text": "lucne and elasticsear rock",
    "offset": 0,
    "length": 26,
    "options": [
    {
      "text": "lucene and elasticsearch rock",
      "highlighted": "<em>lucene</em> and <em>elasticsearch</em> rock",
      "score": 0.004993905
    },
    {
      "text": "lucne and elasticsearch rock",
      "highlighted": "lucne and <em>elasticsearch</em> rock",
      "score": 0.0033391973
    },
    {
      "text": "lucene and elasticsear rock",
      "highlighted": "<em>lucene</em> and elasticsear rock",
      "score": 0.0029183894
    }
   ]
  }
 ]
}

options直接返回一个phrase列表,由于加了highlight选项,被替换的term会被高亮。因为lucene和elasticsearch曾经在同一条原文里出现过,同时替换2个term的可信度更高,所以打分较高,排在第一位返回。Phrase suggester有相当多的参数用于控制匹配的模糊程度,需要根据实际应用情况去挑选和调试。
下面来谈一下Completion Suggester,它主要针对的应用场景就是"Auto Completion"。 此场景下用户每输入一个字符的时候,就需要即时发送一次查询请求到后端查找匹配项,在用户输入速度较高的情况下对后端响应速度要求比较苛刻。因此实现上它和前面两个Suggester采用了不同的数据结构,索引并非通过倒排来完成,而是将analyze过的数据编码成FST和索引一起存放。对于一个open状态的索引,FST会被ES整个装载到内存里的,进行前缀查找速度极快。但是FST只能用于前缀查找,这也是Completion Suggester的局限所在。
为了使用Completion Suggester,字段的类型需要专门定义如下:

PUT /blogs_completion/
{
 "mappings": {
   "properties": {
    "body": {
     "type": "completion"
   }
 }
}
}

用bulk API索引点数据:

POST _bulk/?refresh=true
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Lucene is cool"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Elasticsearch builds on top of lucene"}
{ "index" : { "_index" : "blogs_completion"} }
{ "body": "Elasticsearch rocks"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Elastic is the company behind ELK stack"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "the elk stack rocks"}
{ "index" : { "_index" : "blogs_completion"} }
{ "body": "elasticsearch is rock solid"}

查找:

POST /blogs_completion/_search?pretty
{ "size": 0,
 "suggest": {
  "blog-suggest": {
   "prefix": "elastic i",
   "completion": {
    "field": "body"
  }
 }
}
}

结果:

"suggest" : {
  "blog-suggest" : [
  {
    "text" : "elastic i",
    "offset" : 0,
    "length" : 9,
    "options" : [
    {
      "text" : "Elastic is the company behind ELK stack",
      "_index" : "blogs_completion",
      "_type" : "_doc",
      "_id" : "7WIhOnQB-DBpPI60CSK-",
      "_score" : 1.0,
      "_source" : {
       "body" : "Elastic is the company behind ELK stack"
     }
    }
   ]
  }
 ]
}
}

值得注意的一点是Completion Suggester在索引原始数据的时候也要经过analyze阶段,取决于选用的analyzer不同,某些词可能会被转换,某些词可能被去除,这些会影响FST编码结果,也会影响查找匹配的效果。
比如我们删除上面的索引,重新设置索引的mapping,将analyzer更改为"english":

PUT /blogs_completion/
{
 "mappings": {
  "properties": {
   "body": {
    "type": "completion",
    "analyzer":"english" 
  }
 }
}
}
POST _bulk/?refresh=true
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Lucene is cool"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Elasticsearch builds on top of lucene"}
{ "index" : { "_index" : "blogs_completion"} }
{ "body": "Elasticsearch rocks"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "Elastic is the company behind ELK stack"}
{ "index" : { "_index" : "blogs_completion" } }
{ "body": "the elk stack rocks"}
{ "index" : { "_index" : "blogs_completion"} }
{ "body": "elasticsearch is rock solid"}

bulk api索引同样的数据后,执行下面的查询:

POST /blogs_completion/_search?pretty
{ "size": 0,
 "suggest": {
  "blog-suggest": {
   "prefix": "elastic i",
   "completion": {
    "field": "body"
  }
 }
}
}

居然没有匹配结果了,多么费解! 原来我们用的english analyzer会剥离掉stop word,而is就是其中一个,被剥离掉了!
用analyze api测试一下:

POST _analyze
{
 "text": "elasticsearch is rock solid",
 "analyzer":"english" 
}
会发现只有3个token:
{
 "tokens": [
 {
   "token": "elasticsearch",
   "start_offset": 0,
   "end_offset": 13,
   "type": "<ALPHANUM>",
   "position": 0
 },
 {
   "token": "rock",
   "start_offset": 17,
   "end_offset": 21,
   "type": "<ALPHANUM>",
   "position": 2
 },
 {
   "token": "solid",
   "start_offset": 22,
   "end_offset": 27,
   "type": "<ALPHANUM>",
   "position": 3
 }
]
}

FST(Finite StateTransducers)只编码了这3个token,并且默认的还会记录他们在文档中的位置和分隔符。 用户输入"elastic i"进行查找的时候,输入被分解成"elastic"和"i",FST没有编码这个“i” , 匹配失败。
好吧,如果你现在还足够清醒的话,试一下搜索"elastic is",会发现又有结果,why? 因为这次输入的text经过english analyzer的时候is也被剥离了,只需在FST里查询"elastic"这个前缀,自然就可以匹配到了。
其他能影响completion suggester结果的,还有如"preserve_separators","preserve_position_increments"等等mapping参数来控制匹配的模糊程度。以及搜索时可以选用Fuzzy Queries,使得上面例子里的"elastic i"在使用english analyzer的情况下依然可以匹配到结果。

"preserve_separators": false, 这个设置为false,将忽略空格之类的分隔符
"preserve_position_increments": true,如果建议词第一个词是停用词,并且我们使用了过滤停用
词的分析器,需要将此设置为false。

因此用好Completion Sugester并不是一件容易的事,实际应用开发过程中,需要根据数据特性和业务需要,灵活搭配analyzer和mapping参数,反复调试才可能获得理想的补全效果。
回到篇首京东或者百度搜索框的补全/纠错功能,如果用ES怎么实现呢?我能想到的一个的实现方式:在用户刚开始输入的过程中,使用Completion Suggester进行关键词前缀匹配,刚开始匹配项会比较多,随着用户输入字符增多,匹配项越来越少。如果用户输入比较精准,可能Completion Suggester的结果已经够好,用户已经可以看到理想的备选项了。
如果Completion Suggester已经到了零匹配,那么可以猜测是否用户有输入错误,这时候可以尝试一下Phrase Suggester。如果Phrase Suggester没有找到任何option,开始尝试term Suggester。精准程度上(Precision)看: Completion > Phrase > term, 而召回率上(Recall)则反之。从性能上看,Completion Suggester是最快的,如果能满足业务需求,只用Completion Suggester做前缀匹配是最理想的。 Phrase和Term由于是做倒排索引的搜索,相比较而言性能应该要低不少,应尽量控制suggester用到的索引的数据量,最理想的状况是经过一定时间预热后,索引可以全量map到内存。

召回率(Recall)  = 系统检索到的相关文件 / 系统所有相关的文件总数
准确率(Precision) = 系统检索到的相关文件 / 系统所有检索到的文件总数
从一个大规模数据集合中检索文档时,可把文档分成四组:
- 系统检索到的相关文档(A)
- 系统检索到的不相关文档(B)
- 相关但是系统没有检索到的文档(C)
- 不相关且没有被系统检索到的文档(D)
则:
- 召回率R:用实际检索到相关文档数作为分子,所有相关文档总数作为分母,即R = A / ( A + C )
- 精度P:用实际检索到相关文档数作为分子,所有检索到的文档总数作为分母,即P = A / ( A + B )
举例:一个数据库有 1000 个文档,其中有 50 个文档符合相关定义的问题,系统检索到 75 个文档,但
其中只有 45 个文档被检索出。
 精度:P=45/75=60%。
 召回率:R=45/50=90%。

Context Suggester
Completion Suggester 的扩展
可以在搜索中加入更多的上下文信息,然后根据不同的上下文信息,对相同的输入,比如"star",
提供不同的建议值,比如:
咖啡相关:starbucks
电影相关:star wars

第8节 玩转Elasticsearch Java Client

1.说明
ES提供多种不同的客户端:
1、TransportClient ES提供的传统客户端,官方计划8.0版本删除此客户端。
2、RestClient RestClient是官方推荐使用的,它包括两种:Java Low Level REST Client和 Java High Level REST Client。 ES在6.0之后提供 Java High Level REST Client, 两种客户端官方更推荐使用 Java High Level REST Client, 使用时加入对应版本的依赖即可。
2. SpringBoot 中使用 RestClient
1)配置 pom.xml

<parent>
  <groupId>org.springframework.boot</groupId>
  <artifactId>spring-boot-starter-parent</artifactId>
  <version>2.0.1.RELEASE</version>
</parent>
<dependencies>
  <dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-test</artifactId>
  </dependency>
  <dependency>
    <groupId>org.elasticsearch.client</groupId>
    <artifactId>elasticsearch-rest-high-level-client</artifactId>
    <version>7.3.0</version>
    <exclusions>
      <exclusion>
        <groupId>org.elasticsearch</groupId>
        <artifactId>elasticsearch</artifactId>
      </exclusion>
    </exclusions>
  </dependency>
  <dependency>
    <groupId>org.elasticsearch</groupId>
    <artifactId>elasticsearch</artifactId>
    <version>7.3.0</version>
  </dependency>
</dependencies>
  1. application.yml文件配置
lagouelasticsearch:
elasticsearch:
 hostlist: 192.168.211.138:9200 #多个结点中间用逗号分隔

3)配置类

@Configuration
public class ElasticsearchConfig {
@Value("${lagouelasticsearch.elasticsearch.hostlist}")
  private String hostlist;
  @Bean
  public RestHighLevelClient restHighLevelClient(){
    //解析hostlist配置信息
    String[] split = hostlist.split(",");
    //创建HttpHost数组,其中存放es主机和端口的配置信息
    HttpHost[] httpHostArray = new HttpHost[split.length];
    for(int i=0;i<split.length;i++){
      String item = split[i];
      httpHostArray[i] = new HttpHost(item.split(":")[0],
Integer.parseInt(item.split(":")[1]), "http");
   }
    //创建RestHighLevelClient客户端
    return new RestHighLevelClient(RestClient.builder(httpHostArray));
 }
  //项目主要使用RestHighLevelClient,对于低级的客户端暂时不用
  @Bean
  public RestClient restClient(){
    //解析hostlist配置信息
    String[] split = hostlist.split(",");
    //创建HttpHost数组,其中存放es主机和端口的配置信息
    HttpHost[] httpHostArray = new HttpHost[split.length];
    for(int i=0;i<split.length;i++){
      String item = split[i];
      httpHostArray[i] = new HttpHost(item.split(":")[0],
Integer.parseInt(item.split(":")[1]), "http");
   }
    return RestClient.builder(httpHostArray).build();
 }
  1. 编写启动类
package com.lagou;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
public class ESApplication {
  public static void main(String[] args) throws Exception {
    SpringApplication.run(ESApplication.class, args);
 }
}

5)索引操作

@SpringBootTest
@RunWith(SpringRunner.class)
public class TestIndex {
@Autowired
  RestHighLevelClient client;
  @Autowired
  RestClient restClient;
  //创建索引库
  /*
  PUT /elasticsearch_test
  {
   "settings": {},
   "mappings": {
    "properties": {
     "description": {
      "type": "text",
      "analyzer": "ik_max_word"
     },
     "name": {
      "type": "keyword"
     },
     "pic": {
      "type": "text",
      "index": false
     },
     "studymodel": {
      "type": "keyword"
     }
    }
   }
  }
  */
  @Test
  public void testCreateIndex() throws IOException {
    //创建索引对象
    CreateIndexRequest createIndexRequest = new
CreateIndexRequest("elasticsearch_test");
    //设置参数
  
 createIndexRequest.settings(Settings.builder().put("number_of_shards","1").put(
"number_of_replicas","0"));
    // 指定映射
    XContentBuilder builder = XContentFactory.jsonBuilder()
       .startObject()
       .field("properties")
       .startObject()
       .field("studymodel").startObject().field("index",
"true").field("type", "keyword").endObject()
       .field("name").startObject().field("index",
"true").field("type", "integer").endObject()
       .field("description").startObject().field("index",
"true").field("type", "text").field("analyzer", "ik_max_word").endObject()
       .field("pic").startObject().field("index",
"false").field("type", "text").endObject()
       .endObject()
       .endObject();
    createIndexRequest.mapping("doc",builder);
    /*指定映射
     createIndexRequest.mapping("doc"," {\n" +
        " \t\"properties\": {\n" +
        "      \"studymodel\":{\n" +
        "       \"type\":\"keyword\"\n" +
        "      },\n" +
        "      \"name\":{\n" +
        "       \"type\":\"keyword\"\n" +
        "      },\n" +
        "      \"description\": {\n" +
        "       \"type\": \"text\",\n" +
        "       \"analyzer\":\"ik_max_word\" \n" +
        "      },\n" +
        "      \"pic\":{\n" +
        "       \"type\":\"text\",\n" +
        "       \"index\":false\n" +
        "      }\n" +
        " \t}\n" +
        "}", XContentType.JSON);
    */
   
    //操作索引的客户端
    IndicesClient indices = client.indices();
    //执行创建索引库
    //CreateIndexResponse createIndexResponse =
indices.create(createIndexRequest, RequestOptions.DEFAULT);
    CreateIndexResponse createIndexResponse =
 indices.create(createIndexRequest,RequestOptions.DEFAULT);
    //得到响应
    boolean acknowledged = createIndexResponse.isAcknowledged();
    System.out.println(acknowledged);
 }
  //删除索引库
  @Test
  public void testDeleteIndex() throws IOException {
    //删除索引的请求对象
    DeleteIndexRequest deleteIndexRequest = new
DeleteIndexRequest("elasticsearch_test");
    //操作索引的客户端
    IndicesClient indices = client.indices();
    //执行删除索引
    AcknowledgedResponse delete = indices.delete(deleteIndexRequest,
RequestOptions.DEFAULT);
    //得到响应
    boolean acknowledged = delete.isAcknowledged();
    System.out.println(acknowledged);
 }
  //添加文档
  /*
  POST /elasticsearch_test/_doc/1
  {
   "name": "spring cloud实战",
   "description": "本课程主要从四个章节进行讲解: 1.微服务架构入门 2.spring cloud 基
础入门 3.实战Spring Boot 4.注册中心eureka。",
   "studymodel":"201001",
   "timestamp": "2020-08-22 20:09:18",
   "price": 5.6
  }
 
  */
  @Test
  public void testAddDoc() throws IOException {
     
    //创建索引请求对象
    IndexRequest indexRequest = new
IndexRequest("elasticsearch_test","doc");
    indexRequest.id("1");
    //文档内容 准备json数据
    Map<String, Object> jsonMap = new HashMap<>();
    jsonMap.put("name", "spring cloud实战");
    jsonMap.put("description", "本课程主要从四个章节进行讲解: 1.微服务架构入门
2.spring cloud 基础入门 3.实战Spring Boot 4.注册中心eureka。");
    jsonMap.put("studymodel", "201001");
    SimpleDateFormat dateFormat =new SimpleDateFormat("yyyy-MM-dd
HH:mm:ss");
    jsonMap.put("timestamp", dateFormat.format(new Date()));
    jsonMap.put("price", 5.6f);
    indexRequest.source(jsonMap);
    //通过client进行http的请求
    IndexResponse indexResponse =
client.index(indexRequest,RequestOptions.DEFAULT);
    DocWriteResponse.Result result = indexResponse.getResult();
    System.out.println(result);
 }
}
 //查询文档
  @Test
  public void testGetDoc() throws IOException {
    //查询请求对象
    GetRequest getRequest = new GetRequest("elasticsearch_test","2");
    GetResponse getResponse = client.get(getRequest,RequestOptions.DEFAULT);
    //得到文档的内容
    Map<String, Object> sourceAsMap = getResponse.getSourceAsMap();
    System.out.println(sourceAsMap);
 }
  1. 其它搜索操作
//搜索全部记录
  /*
   GET  /elasticsearch_test/_search
    {
     "query":{
      "match_all":{}
     }
    }
  */
  @Test
  public void testSearchAll() throws IOException, ParseException {
    //搜索请求对象
    SearchRequest searchRequest = new SearchRequest("elasticsearch_test");
    //搜索源构建对象
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    //搜索方式
    //matchAllQuery搜索全部
    searchSourceBuilder.query(QueryBuilders.matchAllQuery());
    //设置源字段过虑,第一个参数结果集包括哪些字段,第二个参数表示结果集不包括哪些字段
    searchSourceBuilder.fetchSource(new String[]
{"name","studymodel","price","timestamp"},new String[]{});
    //向搜索请求对象中设置搜索源
    searchRequest.source(searchSourceBuilder);
    //执行搜索,向ES发起http请求
    SearchResponse searchResponse = client.search(searchRequest,
RequestOptions.DEFAULT);
  
    //搜索结果
    SearchHits hits = searchResponse.getHits();
    //匹配到的总记录数
    TotalHits totalHits = hits.getTotalHits();
    //得到匹配度高的文档
    SearchHit[] searchHits = hits.getHits();
    //日期格式化对象
    SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd
HH:mm:ss");
    for(SearchHit hit:searchHits){
      //文档的主键
      String id = hit.getId();
      //源文档内容
      Map<String, Object> sourceAsMap = hit.getSourceAsMap();
      String name = (String) sourceAsMap.get("name");
      //由于前边设置了源文档字段过虑,这时description是取不到的
      String description = (String) sourceAsMap.get("description");
      //学习模式
      String studymodel = (String) sourceAsMap.get("studymodel");
      //价格
      Double price = (Double) sourceAsMap.get("price");
      //日期
      Date timestamp = dateFormat.parse((String)
sourceAsMap.get("timestamp"));
      System.out.println(name);
      System.out.println(studymodel);
      System.out.println(description);
   }
 }
  //TermQuery
  @Test
  public void testTermQuery() throws IOException, ParseException {
    //搜索请求对象
    SearchRequest searchRequest = new SearchRequest("elasticsearch_test"); 
    //搜索源构建对象
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    //搜索方式
    //termQuery
    searchSourceBuilder.query(QueryBuilders.termQuery("name","spring"));
    //设置源字段过虑,第一个参数结果集包括哪些字段,第二个参数表示结果集不包括哪些字段
    searchSourceBuilder.fetchSource(new String[]
{"name","studymodel","price","timestamp"},new String[]{});
    //向搜索请求对象中设置搜索源
    searchRequest.source(searchSourceBuilder);
    //执行搜索,向ES发起http请求
    SearchResponse searchResponse =
client.search(searchRequest,RequestOptions.DEFAULT);
    //搜索结果
    SearchHits hits = searchResponse.getHits();
    //匹配到的总记录数
    TotalHits totalHits = hits.getTotalHits();
    //得到匹配度高的文档
    SearchHit[] searchHits = hits.getHits();
    //日期格式化对象
    SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd
HH:mm:ss");
    for(SearchHit hit:searchHits){
      //文档的主键
      String id = hit.getId();
      //源文档内容
      Map<String, Object> sourceAsMap = hit.getSourceAsMap();
      String name = (String) sourceAsMap.get("name");
      //由于前边设置了源文档字段过虑,这时description是取不到的
      String description = (String) sourceAsMap.get("description");
      //学习模式
      String studymodel = (String) sourceAsMap.get("studymodel");
      //价格
      Double price = (Double) sourceAsMap.get("price");
      //日期
      Date timestamp = dateFormat.parse((String)
sourceAsMap.get("timestamp"));
      System.out.println(name);
      System.out.println(studymodel);
      System.out.println(description);
   }
 }
  //分页查询
  @Test
  public void testSearchPage() throws IOException, ParseException {
    //搜索请求对象
    SearchRequest searchRequest = new SearchRequest("elasticsearch_test");
    //指定类型
    searchRequest.types("doc");
    //搜索源构建对象
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    //设置分页参数
    //页码
    int page = 1;
    //每页记录数
    int size = 2;
    //计算出记录起始下标
    int from  = (page-1)*size;
    searchSourceBuilder.from(from);//起始记录下标,从0开始
    searchSourceBuilder.size(size);//每页显示的记录数
    //搜索方式
    //matchAllQuery搜索全部
    searchSourceBuilder.query(QueryBuilders.matchAllQuery());
    //设置源字段过虑,第一个参数结果集包括哪些字段,第二个参数表示结果集不包括哪些字段
    searchSourceBuilder.fetchSource(new String[]
{"name","studymodel","price","timestamp"},new String[]{});
    //向搜索请求对象中设置搜索源
    searchRequest.source(searchSourceBuilder);
    //执行搜索,向ES发起http请求
    SearchResponse searchResponse =
client.search(searchRequest,RequestOptions.DEFAULT);
    //搜索结果
    SearchHits hits = searchResponse.getHits();
    //匹配到的总记录数
    TotalHits totalHits = hits.getTotalHits();
    //得到匹配度高的文档
    SearchHit[] searchHits = hits.getHits();
    //日期格式化对象
    SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd
HH:mm:ss");
    for(SearchHit hit:searchHits){
      //文档的主键
      String id = hit.getId();
      //源文档内容
      Map<String, Object> sourceAsMap = hit.getSourceAsMap();
      String name = (String) sourceAsMap.get("name");
      //由于前边设置了源文档字段过虑,这时description是取不到的
      String description = (String) sourceAsMap.get("description");
      //学习模式
      String studymodel = (String) sourceAsMap.get("studymodel");
      //价格
      Double price = (Double) sourceAsMap.get("price");
      //日期
      Date timestamp = dateFormat.parse((String)
sourceAsMap.get("timestamp"));
      System.out.println(name);
      System.out.println(studymodel);
      System.out.println(description);
   }
 }
  //TermQuery 分页
  @Test
  public void testTermQuery() throws IOException, ParseException {
    //搜索请求对象
    SearchRequest searchRequest = new SearchRequest("elasticsearch_test"); 
    //搜索源构建对象
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    //设置分页参数
    //页码
    int page = 1;
    //每页记录数
    int size = 2;
    //计算出记录起始下标
    int from  = (page-1)*size;
    searchSourceBuilder.from(from);//起始记录下标,从0开始
    searchSourceBuilder.size(size);//每页显示的记录数
    //搜索方式
    //termQuery
    searchSourceBuilder.query(QueryBuilders.termQuery("name","spring"));
    //设置源字段过虑,第一个参数结果集包括哪些字段,第二个参数表示结果集不包括哪些字段
    searchSourceBuilder.fetchSource(new String[]
{"name","studymodel","price","timestamp"},new String[]{});
    //向搜索请求对象中设置搜索源
    searchRequest.source(searchSourceBuilder);
    //执行搜索,向ES发起http请求
    SearchResponse searchResponse =
client.search(searchRequest,RequestOptions.DEFAULT);
    //搜索结果
    SearchHits hits = searchResponse.getHits();
    //匹配到的总记录数
    TotalHits totalHits = hits.getTotalHits();
    //得到匹配度高的文档
    SearchHit[] searchHits = hits.getHits();
    //日期格式化对象
    SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd
HH:mm:ss");
    for(SearchHit hit:searchHits){
      //文档的主键
      String id = hit.getId();
      //源文档内容
      Map<String, Object> sourceAsMap = hit.getSourceAsMap();
      String name = (String) sourceAsMap.get("name");
      //由于前边设置了源文档字段过虑,这时description是取不到的
      String description = (String) sourceAsMap.get("description");
      //学习模式
      String studymodel = (String) sourceAsMap.get("studymodel");
      //价格
      Double price = (Double) sourceAsMap.get("price");
      //日期
      Date timestamp = dateFormat.parse((String)
sourceAsMap.get("timestamp"));
      System.out.println(name);
      System.out.println(studymodel);
      System.out.println(description);
   }
 }

第四部分 玩转Elasticsearch之企业级高可用分布式集群

第1节 核心概念

集群(Cluster)
一个Elasticsearch集群由多个节点(Node)组成,每个集群都有一个共同的集群名称作为标识节点(Node)
节点(Node)
一个Elasticsearch实例即一个Node,一台机器可以有多个实例,正常使用下每个实例都应该会部署在不同的机器上。Elasticsearch的配置文件中可以通过node.master、node.data来设置节点类型。
ode.master:表示节点是否具有成为主节点的资格
true代表的是有资格竞选主节点
false代表的是没有资格竞选主节点
node.data:表示节点是否存储数据
Node节点组合
主节点+数据节点(master+data) 默认
节点既有成为主节点的资格,又存储数据

node.master: true
node.data: true

数据节点(data)
节点没有成为主节点的资格,不参与选举,只会存储数据

node.master: false
node.data: true

客户端节点(client)
不会成为主节点,也不会存储数据,主要是针对海量请求的时候可以进行负载均衡

node.master: false
node.data: false

分片
每个索引有1个或多个分片,每个分片存储不同的数据。分片可分为主分片(primary shard)和复制分片(replica shard),复制分片是主分片的拷贝。默认每个主分片有一个复制分片,每个索引的复制分片的数量可以动态地调整,复制分片从不与它的主分片在同一个节点上
副本
这里指主分片的副本分片(主分片的拷贝)

提高恢复能力:当主分片挂掉时,某个复制分片可以变成主分片;
提高性能:get 和 search 请求既可以由主分片又可以由复制分片处理;

第2节 Elasticsearch分布式架构
Elasticseasrch的架构遵循其基本概念:一个采用Restful API标准的高扩展性和高可用性的实时数据分析的全文搜索引擎。
特性:
高扩展性:体现在Elasticsearch添加节点非常简单,新节点无需做复杂的配置,只要配置好集群信息将会被集群自动发现。
高可用性:因为Elasticsearch是分布式的,每个节点都会有备份,所以宕机一两个节点也不会出现问题,集群会通过备份进行自动复盘。
实时性:使用倒排索引来建立存储结构,搜索时常在百毫秒内就可完成。
分层:
在这里插入图片描述
第一层 —— Gateway:
Elasticsearch支持的索引快照的存储格式,es默认是先把索引存放到内存中,当内存满了之后再持久化到本地磁盘。gateway对索引快照进行存储,当Elasticsearch关闭再启动的时候,它就会从这个gateway里面读取索引数据;支持的格式有:本地的Local FileSystem、分布式的Shared FileSystem、Hadoop的文件系统HDFS、Amazon(亚马逊)的S3。
第二层 —— Lucene框架:
Elasticsearch基于Lucene(基于Java开发)框架。
第三层 —— Elasticsearch数据的加工处理方式:
Index Module(创建Index模块)、Search Module(搜索模块)、Mapping(映射)、River 代表es的一个数据源(运行在Elasticsearch集群内部的一个插件,主要用来从外部获取获取异构数据,然后在Elasticsearch里创建索引;常见的插件有RabbitMQ River、Twitter River)。
第四层 —— Elasticsearch发现机制、脚本:
Discovery 是Elasticsearch自动发现节点的机制的模块,Zen Discovery和 EC2 discovery。EC2:亚马逊弹性计算云 EC2 discovery主要在亚马云平台中使用。Zen Discovery作用就相当于solrcloud中的zookeeper。zen Discovery 从功能上可以分为两部分,第一部分是集群刚启动时的选主,或者是新加入集群的节点发现当前集群的Master。第二部分是选主完成后,Master 和 Folower 的相互探活。
Scripting 是脚本执行功能,有这个功能能很方便对查询出来的数据进行加工处理。
3rd Plugins 表示Elasticsearch支持安装很多第三方的插件,例如elasticsearch-ik分词插件、elasticsearch-sql sql插件。
第五层 —— Elasticsearch的交互方式:
有Thrift、Memcached、Http三种协议,默认的是用Http协议传输
第六层 —— Elasticsearch的API支持模式:
RESTFul Style API风格的API接口标准是当下十分流行的。Elasticsearch作为分布式集群,客户端到服务端,节点与节点间通信有TCP和Http通信协议,底层实现为Netty框架
解析Elasticsearch的分布式架构
分布式架构的透明隐藏特性
Elasticsearch是一个分布式系统,隐藏了复杂的处理机制
分片机制:将文本数据切割成n个小份存储在不同的节点上,减少大文件存储在单个节点上对设备带来的压力。
分片的副本:在集群中某个节点宕掉后,通过副本可以快速对缺失数据进行复盘。
集群发现机制(cluster discovery):在当前启动了一个Elasticsearch进程,在启动第二个Elasticsearch进程时,这个进程将作为一个node自动就发现了集群,并自动加入,前提是这些node都必须配置一套集群信息。
Shard负载均衡:例如现在由10个 shard (分片),集群中由三个节点,Elasticsearch会进行均衡的分配,以保持每个节点均衡的负载请求。
扩容机制
垂直扩容:用新机器替换已有的机器,服务器台数不变容量增加。
水平扩容:直接增加新机器,服务器台数和容量都增加。
rebalance
增加或减少节点时会自动负载
主节点
主节点的主要职则是和集群操作的相关内容,如创建或删除索引,跟踪哪些节点是集群的一部分,并决定哪些分片分配给相关的节点。稳定的主节点对集群的健康是非常重要的。
节点对等
每个节点都能接受请求,每个节点接受到请求后都能把该请求路由到有相关数据的其它节点上,接受原始请求的节点负责采集数据并返回给客户端。
在这里插入图片描述

第3节 集群环境搭建

我们搭建一个三个节点的集群环境,为了学习方便,我这边只在一台服务器上来演示主从环境。
调整虚拟机内存到3g以上
在这里插入图片描述
一、节点搭建
elasticsearch.yml配置文件说明:
配置说明:
在这里插入图片描述
我们要只需要在之前的基础上,打开配置文件elasticsearch.yml,添加如下配置:

cluster.name: my-es  #集群名称 ---
node.name: node-1 # 节点名称 
node.master: true #当前节点是否可以被选举为master节点,是:true、否:false ---
network.host: 0.0.0.0
http.port: 9200
transport.port: 9300   # ---
#初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node-1","node-2","node-3"]
#写入候选主节点的设备地址 ---
discovery.seed_hosts: ["127.0.0.1:9300", "127.0.0.1:9301","127.0.0.1:9302"]
http.cors.enabled: true
http.cors.allow-origin: "*"

修改完配置文件之后,一定要把之前的data目录下node数据删除再重新服务即可。
二、第二节点配置

  1. 拷贝原来的ES节点elasticsearch 并命名为elasticsearch1,并授权
    cp elasticsearch/ elasticsearch1 -rf
    chown -R estest elasticsearch1
    进入elasticsearch1目录config文件夹,修改elasticsearch.yml配置文件并保存。
# 修改node.name 和 http.port transport.port
node.name: node-2
http.port: 9201
transport.port: 9301


#启动从环境1 一定要用estest用户来执行
cd bin/
./elasticsearch 

2.第三节点配置
拷贝第一个节点 并命名为elasticsearch2,并授权
chown -R estest elasticsearch2
进入elasticsearch2目录config文件夹,修改elasticsearch.yml配置文件并保存。

# 修改node.name 和 http.port transport.port
node.name: node-3
http.port: 9202
transport.port: 9302

#启动从环境1 一定要用estest用户来执行
cd bin/
./elasticsearch 

简单验证
http://192.168.211.136:9200/_cat/health?v

三、Elasticsearch Head插件介绍及安装 和 验证主从环境
Elasticsearch Head插件介绍及安装
elasticsearch-head 简介
elasticsearch-head是一个界面化的集群操作和管理工具,可以对集群进行傻瓜式操作。你可以通过
插件把它集成到ES。
es-head主要有三个方面的操作:

  1. 显示集群的拓扑 能够快速访问并显示集群的状态,并且能够执行索引和节点级别操作
  2. 搜索接口能够查询集群中原始json或表格格式的检索数据
  3. 有一个输入窗口,允许任意调用RESTful API。
    官方的文档: https://github.com/mobz/elasticsearch-head
    elasticsearch-head 安装
    1.安装步骤
    ealsticsearch只是后端提供各种api,那么怎么直观的使用它呢?elasticsearch-head将是一款专门针 对于elasticsearch的客户端工具 elasticsearch-head配置包,下载地址:https://github.com/mobz/elasticsearch-head elasticsearch-head是一个基于node.js的前端工程。
    1.nodejs安装
wget https://nodejs.org/dist/v10.15.3/node-v10.15.3-linux-x64.tar.xz  // 下载
tar xf node-v10.15.3-linux-x64.tar.xz    // 解压
cd node-v10.15.3-linux-x64/         // 进入解压目录
./bin/node -v                // 执行node命令 查看版本
v10.15.3

解压文件的 bin 目录底下包含了 node、npm 等命令,我们可以使用 ln 命令来设置软连接:

ln -s /root/node-v10.15.3-linux-x64/bin/npm  /usr/local/bin/
ln -s /root/node-v10.15.3-linux-x64/bin/node  /usr/local/bin/

  1. phantomjs安装配置
cd /usr/local
wget https://github.com/Medium/phantomjs/releases/download/v2.1.1/phantomjs-
2.1.1-linux-x86_64.tar.bz2
#注意安装
yum install -y bzip2
tar  -jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2
vim /etc/profile
export PATH=$PATH:/usr/local/phantomjs-2.1.1-linux-x86_64/bin
#注意环境变量$Path移动在最前面
source /etc/profile
  1. elasticsearch-head安装
npm install -g grunt-cli
npm install grunt
npm install grunt-contrib-clean
npm install grunt-contrib-concat
npm install grunt-contrib-watch
npm install grunt-contrib-connect
yum -y install git
git clone git://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head
npm install -g cnpm --registry=https://registry.npm.taobao.org

  1. elasticsearch-head发现主机 并连接 elasticsearch.yml配置文件修改:

如果之前设置过 可以忽略这一步
http.cors.enabled: true
http.cors.allow-origin: "*"
  1. 启动
    在 elasticsearch-head 中执行命令
npm run start
如果启动出错 则把第三步中的依赖再安装一遍

  1. 启动完成后,我们用Elasticsearch head查看,主从环境配置正常


在kibana中建立下面的索引

PUT /lagou-employee-index
{
 "settings": {},
 "mappings": {
   "properties": {
    "name": {
     "type": "text"
   }
  }
}
}




PUT /lagou-company-index
{
 "settings": {
   "number_of_shards" : "2",
   "number_of_replicas" : "2"
},
 "mappings": {
   "properties": {  "name": {
     "type": "text"
   }
  }
}
}

在这里插入图片描述

第4节 集群规划

4.1 我们需要多大规模的集群

需要从以下两个方面考虑:
1)当前的数据量有多大?数据增长情况如何?
2)你的机器配置如何?cpu、多大内存、多大硬盘容量?
推算的依据:
Elasticsearch JVM heap 最大可以设置32G 。
30G heap 大概能处理的数据量 10 T。如果内存很大如128G,可在一台机器上运行多个ES节点实例。
备注:集群规划满足当前数据规模+适量增长规模即可,后续可按需扩展。
两类应用场景:
A. 用于构建业务搜索功能模块,且多是垂直领域的搜索。数据量级几千万到数十亿级别。一般2-4台机器的规模。
B. 用于大规模数据的实时OLAP(联机处理分析),经典的如ELK Stack,数据规模可能达到千亿或更多。几十到上百节点的规模。

4.2 集群中的节点角色如何分配

节点角色:
Master
node.master: true 节点可以作为主节点
DataNode
node.data: true 默认是数据节点
Coordinate node 协调节点,一个节点只作为接收请求、转发请求到其他节点、汇总各个节点返回数据等功能的节点,就叫协调节点,如果仅担任协调节点,将上两个配置设为false。
说明:一个节点可以充当一个或多个角色,默认三个角色都有

节点角色如何分配:
A. 小规模集群,不需严格区分。
B. 中大规模集群(十个以上节点),应考虑单独的角色充当。特别并发查询量大,查询的合并量大,可以增加独立的协调节点。角色分开的好处是分工分开,不互影响。如不会因协调角色负载过高而影响数据节点的能力。

4.3 如何避免脑裂问题

脑裂问题:
一个集群中只有一个A主节点,A主节点因为需要处理的东西太多或者网络过于繁忙,从而导致其他从节点ping不通A主节点,这样其他从节点就会认为A主节点不可用了,就会重新选出一个新的主节点B。过了一会A主节点恢复正常了,这样就出现了两个主节点,导致一部分数据来源于A主节点,另外一部分数据来源于B主节点,出现数据不一致问题,这就是脑裂。
6.x和之前版本 尽量避免脑裂,需要添加最小数量的主节点配置:
discovery.zen.minimum_master_nodes: (有master资格节点数/2) + 1
这个参数控制的是,选举主节点时需要看到最少多少个具有master资格的活节点,才能进行选举。官方的推荐值是(N/2)+1,其中N是具有master资格的节点的数量。
在新版7.X的ES中,对es的集群发现系统做了调整,不再有discovery.zen.minimum_master_nodes这个控制集群脑裂的配置,转而由集群自主控制,并且新版在启动一个新的集群的时候需要有cluster.initial_master_nodes初始化集群列表
在es7中,discovery.zen.* 开头的参数,有些已经失效
在这里插入图片描述

常用做法(中大规模集群):
1)Master 和 dataNode 角色分开,配置奇数个master,如3
2)单播发现机制,配置master资格节点(5.0之前):
discovery.zen.ping.multicast.enabled: false —— 关闭多播发现机制,默认是关闭的
3)延长ping master的等待时长
discovery.zen.ping_timeout: 30(默认值是3秒)——其他节点ping主节点多久时间没有响应就认为主节点不可用了。
es7中换成了 discovery.request_peers_timeout

4.4 索引应该设置多少个分片

说明:分片数指定后不可变,除非重建索引。
分片设置的可参考原则:
ElasticSearch推荐的最大JVM堆空间是30~32G, 所以把你的分片最大容量限制为30GB, 然后再对分片数量做合理估算. 例如, 你认为你的数据能达到200GB, 推荐你最多分配7到8个分片。
在开始阶段, 一个好的方案是根据你的节点数量按照1.5~3倍的原则来创建分片. 例如,如果你有3个节点,则推荐你创建的分片数最多不超过9(3x3)个。当性能下降时,增加节点,ES会平衡分片的放置。
对于基于日期的索引需求, 并且对索引数据的搜索场景非常少. 也许这些索引量将达到成百上千, 但每个索引的数据量只有1GB甚至更小. 对于这种类似场景, 建议只需要为索引分配1个分片。如日志管理就是一个日期的索引需求,日期索引会很多,但每个索引存放的日志数据量就很少。

4.5 分片应该设置几个副本

副本设置基本原则:
为保证高可用,副本数设置为2即可。要求集群至少要有3个节点,来分开存放主分片、副本。
如发现并发量大时,查询性能会下降,可增加副本数,来提升并发查询能力。
注意:新增副本时主节点会自动协调,然后拷贝数据到新增的副本节点,副本数是可以随时调整的!

PUT /my_temp_index/_settings
{
  "number_of_replicas": 1
}

第5节 分布式集群调优策略

拉勾网是一家专注于互联网垂直招聘的互联网公司,我们在生产环境的多个场景下都使用到了Elasticsearch,比如针对C端个人用户的职位搜索、针对B端企业用户的简历搜索,另外也在后台日志分析平台(ELK)中应用到,所部署的Elasticsearch版本上覆盖了2.x、5.x、6.x和7.x多个版本。在拉勾网数据总量达百亿级documents,日增量近1T(近1百万document)的高并发海量数据场景下,研发和
运维团队积累了丰富的Elasticsearch调优经验。
拉勾网生产环境Elasticsearch集群有多套,但节点数并没有很多,针对C端个人用户的职位搜索只有7个实例节点,ELK日志平台中Elasticsearch实例节点数也仅仅只有4个,考虑到资金投入、当前及未来一定时间内数据的增量情况等,研发和运维团队在竭尽所能的通过调优方式保证Elasticsearch正常高效运转。
接下来,我们从Index(写)和Search(读)两个方面给大家分享调优经验’

1. Index(写)调优

拉勾网的职位数据和简历数据,首先都是进入MySQL集群的,我们从MySQL的原始表里面抽取并存储到ES 的Index,而MySQL的原始数据也是经常在变化的,所以快速写入Elasticsearch、以保持Elasticsearch和MySQL的数据及时同步也是很重要的。
拉勾网的工程师主要是下面几个方面优化来提高写入的速度:

1.1 副本数置0

如果是集群首次灌入数据,可以将副本数设置为0,写入完毕再调整回去,这样副本分片只需要拷贝,节省了索引过程。

PUT /my_temp_index/_settings
{
"number_of_replicas": 0
}

1.2 自动生成doc ID

通过Elasticsearch写入流程可以看出,如果写入doc时如果外部指定了id,则Elasticsearch会先尝试读取原来doc的版本号,以判断是否需要更新。这会涉及一次读取磁盘的操作,通过自动生成doc ID可以避免这个环节。

1.3 合理设置mappings

将不需要建立索引的字段index属性设置为not_analyzed或no。对字段不分词,或者不索引,可以减少很多运算操作,降低CPU占用。 尤其是binary类型,默认情况下占用CPU非常高,而这种类型进行分词通常没有什么意义。减少字段内容长度,如果原始数据的大段内容无须全部建立 索引,则可以尽量减少不必要的内容。
使用不同的分析器(analyzer),不同的分析器在索引过程中 运算复杂度也有较大的差异。

1.4 调整_source字段

source 字段用于存储 doc 原始数据,对于部分不需要存储的字段,可以通过 includes excludes过滤,或者将source禁用,一般用于索引和数据分离,这样可以降低 I/O 的压力,不过实际场景中大多不会禁用_source。

1.5 对analyzed的字段禁用norms

Norms用于在搜索时计算doc的评分,如果不需要评分,则可以将其禁用:

 "title": {
  "type": "string",
  "norms": {
   "enabled": false
 }

1.6 调整索引的刷新间隔

该参数缺省是1s,强制ES每秒创建一个新segment,从而保证新写入的数据近实时的可见、可被搜索到。比如该参数被调整为30s,降低了刷新的次数,把刷新操作消耗的系统资源释放出来给index操作使用

PUT /my_index/_settings
{
 "index" : {
     "refresh_interval": "30s"
    }
}
这种方案以牺牲可见性的方式,提高了index操作的性能

1.7 批处理

批处理把多个index操作请求合并到一个batch中去处理,和mysql的jdbc的bacth有类似之处。如图:
在这里插入图片描述
比如每批1000个documents是一个性能比较好的size。每批中多少document条数合适,受很多因素影响而不同,如单个document的大小等。ES官网建议通过在单个node、单个shard做性能基准测试来确定这个参数的最优值。
1.8 Document的路由处理
当对一批中的documents进行index操作时,该批index操作所需的线程的个数由要写入的目的shard的个数决定。看下图:
在这里插入图片描述
上图中,有2批documents写入ES, 每批都需要写入4个shard,所以总共需要8个线程。如果能减少shard的个数,那么耗费的线程个数也会减少。例如下图,两批中每批的shard个数都只有2个,总共线程消耗个数4个,减少一半。
默认的routing就是id,也可以在发送请求的时候,手动指定一个routing value,比如说put
/index/doc/id?routing=user_id
在这里插入图片描述
值得注意的是线程数虽然降低了,但是单批的处理耗时可能增加了。和提高刷新间隔方法类似,这有可能会延长数据不见的时间。
2. Search(读)调优
在存储的Document条数超过10亿条后,我们如何进行搜索调优。
1.数据分组
很多人拿ES用来存储日志,日志的索引管理方式一般基于日期的,基于天、周、月、年建索引。如下图,基于天建索引:
在这里插入图片描述
当搜索单天的数据,只需要查询一个索引的shards就可以。当需要查询多天的数据时,需要查询多个索引的shards。这种方案其实和数据库的分表、分库、分区查询方案相比,思路类似,小数据范围查询而不是大海捞针。
开始的方案是建一个index,当数据量增大的时候,就扩容增加index的shard的个数。当shards增大时,要搜索的shards个数也随之显著上升。基于数据分组的思路,可以基于client进行数据分组,每一个client只需依赖自己的index的数据shards进行搜索,而不是所有的数据shards,大大提高了搜索的性能,如下图:
在这里插入图片描述
2.使用Filter替代Query
在搜索时候使用Query,需要为Document的相关度打分。使用Filter,没有打分环节处理,做的事情更少,而且filter理论上更快一些。
如果搜索不需要打分,可以直接使用filter查询。如果部分搜索需要打分,建议使用’bool’查询。这种方式可以把打分的查询和不打分的查询组合在一起使用,如:

GET /_search
{
 "query": {
  "bool": {
   "must": {
    "term": {
     "user": "kimchy"
   }
  },
   "filter": {
    "term": {
     "tag": "tech"
   }
  }
 }
}
}

3.ID字段定义为keyword
一般情况,如果ID字段不会被用作Range 类型搜索字段,都可以定义成keyword类型。这是因为
keyword会被优化,以便进行terms查询。Integers等数字类的mapping类型,会被优化来进行range类型搜索。
将integers改成keyword类型之后,搜索性能大约能提升30%。
4.别让用户的无约束的输入拖累了ES集群的性能
拉勾工程师通过监控发现所有node的CPU 使用及其负载突然异常飙高。通过对Slow Logs分析发现,用户查询输入的条件中夹带了很多’OR’语句以及通配符“*”开头的字符串,如下图
在这里插入图片描述
为了不让用户无约束的查询语句拖累ES集群的查询性能,可以限制用户用来查询的keywords。对于可以用来查询的keyworkds,也可以写成文档来帮助用户更正确的使用。

第五部分 玩转Elasticsearch之数据模型构建

第1节 什么是数据模型

数据模型是抽象描述现实世界的一种工具和方法,是通过抽象实体及实体之间联系的形式,用图形化的形式去描述业务规则的过程,从而表示现实世界中事务以及相互关系的一种映射。
核心概念:

  1. 实体:现实世界中存在的可以相互区分的事物或概念称为实体。
    实体可以分为事物实体和概念实体。例如:一个学生、一个程序员等是事物实体。一门课、一个班级等称为概念实体。
  2. 实体的属性:每个实体都有自己的特征,利用实体的属性可以描述不同的实体。例如。学生实体的
    属性为姓名、性别、年龄等。

第2节 数据建模的过程

数据建模大致分为三个阶段,概念建模阶段,逻辑建模阶段和物理建模阶段。

  1. 概念建模阶段
    概念建模阶段,主要做三件事:
    客户交流
    理解需求
    形成实体
    确定系统的核心需求和范围边界,设计实体与实体之间的关系。
    在概念建模阶段,我们只需要关注实体即可,不用关注任何实现细节。很多人都希望在这个阶段把具体表结构,索引,约束,甚至是存储过程都想好,没必要!因为这些东西是我们在物理建模阶段需要考虑的东西,这个时候考虑还为时尚早。概念模型在整个数据建模时间占比:10%左右。
  2. 逻辑建模阶段
    逻辑建模阶段,主要做二件事:
    进一步梳理业务需求
    确定每个实体的属性、关系和约束等。
    逻辑模型是对概念模型的进一步分解和细化,描述了实体、实体属性以及实体之间的关系,是概念模型延伸,一般的逻辑模型有第三范式,星型模型和雪花模型。模型的主要元素为主题、实体、实体属性和关系。
    雪花模型和星状模型的主要区别是维度的层级 标准的星状模型只有一层 而雪花模型可能涉及多层。
    逻辑模型的作用主要有两点。
    一是便于技术开发人员和业务人员以及用户进行沟通 交流,使得整个概念模型更易于理解,进一步明确需求。
    二是作为物理模型设计的基础,由于逻辑模型不依赖于具体的数据库实现,使用逻辑模型可以生成
    针对具体 数据库管理系统的物理模型,保证物理模型充分满足用户的需求。
    逻辑模型在整个数据建模时间占比:60—70%左右。
  3. 物理建模阶段
    物理建模阶段,主要做一件事:
    结合具体的数据库产品(mysql/oracle/mongo/elasticsearch),在满足业务读写性能等需求的前提下确定最终的定义。
    物理模型是在逻辑模型的基础上描述模型实体的细节,包括数据库产品对应的数据类型、长度、索引等因素,为逻辑模型选择一个最优的物理存储环境。
    逻辑模型转化为物理模型的过程也就是实体名转化为表名,属性名转化为物理列名的过程。
    在设计物理模型时,还需要考虑数据存储空间的分配,包括对列属性必须做出明确的定 义
例如:客户姓名的数据类型是varchar2,长度是20,存储在Oracle数据库中,并且建立索引用于提高该
字段的查询效率。物理模型在整个数据建模时间占比:20—30%左右。

第3节 数据建模的意义

如下图所示:

在这里插入图片描述
数据模型支撑了系统和数据,系统和数据支撑了业务系统。
一个好的数据模型:
能让系统更好的集成、能简化接口。
能简化数据冗余 、减少磁盘空间、提升传输效率。
兼容更多的数据,不会因为数据类型的新增而导致实现逻辑更改。
能帮助更多的业务机会,提高业务效率。
能减少业务风险、降低业务成本

举例: 借助logstash实现mysql到Elasticsearch的增量同步,如果数据建模阶段没有设计时间戳或者自增ID,就几乎无法实现

第4节 ES数据建模Mapping设置

在这里插入图片描述
1.ES Mapping 属性
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/mapping-params.html

在这里插入图片描述
2.ES Mapping 字段设置流程图
在这里插入图片描述
3.ES Mapping 样例

PUT blog_index
{
 "mappings": {
  "doc": {
   "_source": {
    "enabled": false
  },
   "properties": {
    "title": {
     "type": "text",
     "fields": {
      "keyword": {
       "type": "keyword",
       "ignore_above": 100
     }
    },
     "store": true
   },
    "publish_date": {
     "type": "date",
     "store": true
   },
    "author": {
     "type": "keyword",
     "ignore_above": 100,
     "store": true
   },
    "abstract": {
     "type": "text",
     "store": true
   },
"content": {
     "type": "text",
     "store": true
   },
    "url": {
     "type": "keyword",
     "doc_values":false,
     "norms":false,
     "ignore_above": 100,
     "store": true
   }
  }
 }
}
}

这个索引 Mapping中,_source设置为false,同时各个字段的store根据需求设置了true和false。 url的doc_values设置为false,该字段url不用于聚合和排序操作。
建 mapping 时,可以为字符串(专指 keyword) 指定 ignore_above ,用来限定字符长度。超过ignore_above 的字符会被存储,但不会被索引。
注意,是字符长度,一个英文字母是一个字符,一个汉字也是一个字符。
在动态生成的 mapping 中, keyword 类型会被设置 ignore_above: 256 。
ignore_above 可以在创建 mapping 时指定。

第5节 ES关联关系处理

目前ES主要有以下4种常用的方法来处理数据实体间的关联关系:
(1)Application-side joins
这种方式,索引之间完全独立(利于对数据进行标准化处理),由应用端的多次查询来实现近似关联关系查询。这种方法适用于关联的实体只有少量的文档记录的情况(使用ES的terms查询具有上限,默认1024,具体可在elasticsearch.yml中修改),并且最好它们很少改变。这将允许应用程序对结果进行缓存,并避免经常运行第一次查询。

PUT /user/_doc/1
{
 "name":   "John Smith",
 "email":   "john@smith.com",
 "dob":    "1970/10/24"
}
PUT /blogpost/_doc/2
{
 "title":   "Relationships",
 "body":   "It's complicated...",
 "user":   1
}
GET /user/_search
{
 "query": {
  "match": {
   "name": "John"
}
}
}
GET /blogpost/_search
{
 "query": {
   "terms": { "user": [1] } 
}
}

(2)Data denormalization(数据的非规范化)
这种方式,通俗点就是通过字段冗余,以一张大宽表来实现粗粒度的index,这样可以充分发挥扁平化的优势。但是这是以牺牲索引性能及灵活度为代价的。使用的前提:冗余的字段应该是很少改变的,比较适合与一对少量关系的处理。当业务数据库并非采用非规范化设计时,这时要将数据同步到作为二级
索引库的ES中,就需要进行定制化开发,基于特定业务进行应用开发来处理join关联和实体拼接。
说明:宽表处理在处理一对多、多对多关系时,会有字段冗余问题,适合“一对少量”且这个“一”更新不频繁的应用场景。

PUT /user/_doc/1
{
 "name":   "John Smith",
 "email":   "john@smith.com",
 "dob":    "1970/10/24"
}
PUT /blogpost/_doc/2
{
 "title":   "Relationships",
 "body":   "It's complicated...",
 "user":   {
  "id":    1,
  "name":   "John Smith"
}
}
GET /blogpost/_search
{
 "query": {
  "bool": {
   "must": [
   { "match": { "title":   "relationships" }},
   { "match": { "user.name": "John"     }}
  ]
 }
}
}

(3)Nested objects(嵌套文档)
索引性能和查询性能二者不可兼得,必须进行取舍。嵌套文档将实体关系嵌套组合在单文档内部,这种方式牺牲建立索引性能(文档内任一属性变化都需要重新索引该文档)来换取查询性能,比较适合于一对少量的关系处理。
当使用嵌套文档时,使用通用的查询方式是无法访问到的,必须使用合适的查询方式(nested query、nested filter、nested facet等),很多场景下,使用嵌套文档的复杂度在于索引阶段对关联关系的组织拼装。

PUT /drivers
{
  "mappings" : {
    "properties" : {
      "driver" : {
        "type" : "nested",
        "properties" : {
          "last_name" : {
            "type" : "text"
         },
          "vehicle" : {
            "type" : "nested",
            "properties" : {
              "make" : {
                "type" : "text"
             },
              "model" : {
                "type" : "text"
             }
           }
         }
       }
     }
   }
 }
}
PUT /drivers/_doc/1
{
 "driver" : {
    "last_name" : "McQueen",
    "vehicle" : [
     {
        "make" : "Powell Motors",
        "model" : "Canyonero"
     },
     {
        "make" : "Miller-Meteor",
        "model" : "Ecto-1"
     }
   ]
 }
}
PUT /drivers/_doc/2?refresh
{
 "driver" : {
    "last_name" : "Hudson",
    "vehicle" : [
     {
        "make" : "Mifune",
        "model" : "Mach Five"},
     {
        "make" : "Miller-Meteor",
        "model" : "Ecto-1"
     }
   ]
 }
}
GET /drivers/_search
{
  "query" : {
    "nested" : {
      "path" : "driver",
      "query" : {
        "nested" : {
          "path" :  "driver.vehicle",
          "query" : {
            "bool" : {
              "must" : [
               { "match" : { "driver.vehicle.make" : "Powell
Motors" } },
               { "match" : { "driver.vehicle.model" :
"Canyonero" } }
             ]
           }
         }
       }
     }
   }
 }
}

(4)Parent/child relationships(父子文档)
父子文档牺牲了一定的查询性能来换取索引性能,适用于写多读少的场景。父子文档相比嵌套文档较灵活,适用于“一对大量”且这个“一”不是海量的应用场景,该方式比较耗内存和CPU,这种方式查询比嵌套方式慢5~10倍,且需要使用特定的has_parent和has_child过滤器查询语法,查询结果不能同时返回父子文档(一次join查询只能返回一种类型的文档)。受限于父子文档必须在同一分片上(可以通过routing指定父文档id即可)操作子文档时需要指定routing。

PUT my_index
{
 "mappings": {
  "properties": {
   "my_join_field": {
    "type": "join",
    "relations": {
     "question": "answer"
   }
  }
 }
}
}
# 插入父文档
PUT /my_index/_doc/1?refresh
{
 "text": "This is a question",
 "my_join_field": {
  "name": "question"
}
}
PUT /my_index/_doc/2?refresh
{
 "text": "This is a question2",
 "my_join_field": "question"
}
# 插入子文档
PUT /my_index/_doc/3?routing=1
{
 "text": "This is an answer",
 "my_join_field": {
  "name": "answer",
  "parent": "1"
}
}

查询那个文档有子文档

POST my_index/_search
{
 "query": {
  "has_child": {
   "type": "answer",
   "query" : {
        "match": {
          "text" : "this"
       }
     }
 }
}
}

根据父文档id查询子文档

GET my_index/_search
{
 "query": {
  "parent_id": {
   "type": "answer",
   "id": "1"
 }
}
}

第六部分 玩转Elasticsearch之搜索实战

第1节 案例需求

在这里插入图片描述
MySQL中的数据批量导入到ES中, 然后进行搜索职位信息 展示出职位的信息
第2节 代码实现
1.项目准备
1)数据库准备 – 执行 position.sql 脚本
2)pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
https://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <parent>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-parent</artifactId>
    <version>2.1.0.RELEASE</version>
    <relativePath/> <!-- lookup parent from repository -->
  </parent>
  <groupId>com.lagou</groupId>
  <artifactId>lagou-es-project</artifactId>
  <version>0.0.1-SNAPSHOT</version>
  <name>lagou-es-project</name>
  <description>Demo project for Spring Boot</description>
  <properties>
    <elasticsearch.version>7.3.0</elasticsearch.version>
  </properties>
  <dependencies>
  <dependency>
      <groupId>org.elasticsearch.client</groupId>
      <artifactId>elasticsearch-rest-high-level-client</artifactId>
      <version>${elasticsearch.version}</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch
-->
    <dependency>
      <groupId>org.elasticsearch</groupId>
      <artifactId>elasticsearch</artifactId>
      <version>${elasticsearch.version}</version>
    </dependency>
    <dependency>
      <groupId>org.elasticsearch.client</groupId>
      <artifactId>elasticsearch-rest-high-level-client</artifactId>
      <version>7.3.0</version>
      <exclusions>
        <exclusion>
          <groupId>org.elasticsearch</groupId>
          <artifactId>elasticsearch</artifactId>
        </exclusion>
      </exclusions>
    </dependency>
    <dependency>
      <groupId>org.elasticsearch</groupId>
      <artifactId>elasticsearch</artifactId>
      <version>7.3.0</version>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-thymeleaf</artifactId>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-devtools</artifactId>
      <scope>runtime</scope>
      <optional>true</optional>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-configuration-processor</artifactId>
      <optional>true</optional>
    </dependency>
    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <optional>true</optional>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
      <scope>test</scope>
      <exclusions>
        <exclusion>
          <groupId>org.junit.vintage</groupId>
          <artifactId>junit-vintage-engine</artifactId>
        </exclusion>
      </exclusions>
    </dependency>
    <!-- HttpClient -->
    <dependency>
      <groupId>org.apache.httpcomponents</groupId>
      <artifactId>httpclient</artifactId>
      <version>4.5.3</version>
    </dependency>
    <dependency>
      <groupId>com.alibaba</groupId>
      <artifactId>fastjson</artifactId>
      <version>1.2.58</version>
    </dependency>
    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
      <scope>runtime</scope>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.commons/commons-lang3
-->
    <dependency>
      <groupId>org.apache.commons</groupId>
      <artifactId>commons-lang3</artifactId>
      <version>3.9</version>
    </dependency>
    <dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>4.12</version>
      <scope>test</scope>
    </dependency>
    <!--devtools热部署-->
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-devtools</artifactId>
      <optional>true</optional>
      <scope>true</scope>
    </dependency>
  </dependencies>
  <build>
    <plugins>
      <plugin>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-maven-plugin</artifactId>
      </plugin>
        </plugins>
  </build>
</project>

2.代码编写

  1. application.yml 文件
spring:
devtools:
 restart:
  enabled: true  #设置开启热部署
  additional-paths: src/main/java #重启目录
  exclude: WEB-INF/**
 freemarker:
  cache: false   #页面不加载缓存,修改即时生效
elasticsearch:
 rest:
  uris: 192.168.211.136:9200,192.168.211.136:9201,192.168.211.136:9202
server:
port: 8083
logging:
level:
 root: info
 com.xdclass.search: debug
  1. Model
package com.lagou.es.model;
import com.alibaba.fastjson.annotation.JSONType;
import com.fasterxml.jackson.annotation.JsonFormat;
import com.fasterxml.jackson.annotation.JsonIgnore;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
import org.springframework.format.annotation.DateTimeFormat;
import java.util.Date;
@Data
@NoArgsConstructor
@AllArgsConstructor
public class Position {
  //主键
  private String id;
  //公司名称
  private String companyName;
  //职位名称
  private String positionName;
  //职位诱惑
  private String  positionAdvantage;
  //薪资
  private String salary;
  //薪资下限
  private int salaryMin;
  //薪资上限
  private int salaryMax;
  //学历
  private String education;
  //工作年限
  private String workYear;
  //发布时间
  private String publishTime;
  //工作城市
  private String city;
  //工作地点
  private String workAddress;
  //发布时间
  @JsonFormat(pattern = "yyyy-MM-dd HH:mm:ss")
  private Date createTime;
  //工作模式
  private String jobNature;
}
  1. ES配置类
package com.lagou.es.config;
import org.apache.http.HttpHost;
import org.elasticsearch.client.RestClient;
import org.elasticsearch.client.RestHighLevelClient;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class EsConfig {
  @Value("${spring.elasticsearch.rest.uris}")
  private  String  hostlist;
  @Bean
  public RestHighLevelClient client() {//解析hostlist配置信息
    String[] split = hostlist.split(",");
    //创建HttpHost数组,其中存放es主机和端口的配置信息
    HttpHost[] httpHostArray = new HttpHost[split.length];
    for(int i=0;i<split.length;i++){
      String item = split[i];
      System.out.println(item);
      httpHostArray[i] = new HttpHost(item.split(":")[0],
Integer.parseInt(item.split(":")[1]), "http");
   }
    //创建RestHighLevelClient客户端
    return new RestHighLevelClient(RestClient.builder(httpHostArray));
 }
}
  1. 连接mysql的工具类DBHelper
package com.lagou.es.util;
import java.sql.Connection;
import java.sql.DriverManager;
public class DBHelper {
  public static final String url =
"jdbc:mysql://192.168.211.136:3306/lagou_position?
useUnicode=true&characterEncoding=utf-8&serverTimezone=Asia/Shanghai";
  public static final String name = "com.mysql.cj.jdbc.Driver";
  public static final String user = "root";
  public static final String password = "123456";
  public static Connection conn = null;
  public static Connection getConn() {
    try {
      Class.forName(name);
      conn = DriverManager.getConnection(url, user, password);//获取连接
   } catch (Exception e) {
      e.printStackTrace();
   }
    return conn;
 }
}
  1. Service 接口 和 实现类
public interface PositionService {
  /**
  * 分页查询
  * * @param keyword
  * @param pageNo
  * @param pageSize
  * @return
  */
  public List<Map<String,Object>> searchPos(String keyword , int pageNo , int
pageSize) throws IOException;
  /**
  * 导入数据
  */
  void importAll() throws IOException;
}

PositionServiceImpl

package com.lagou.es.service.impl;
import com.lagou.es.config.EsConfig;
import com.lagou.es.service.PositionService;
import com.lagou.es.util.DBHelper;
import org.apache.logging.log4j.LogManager;
import org.apache.logging.log4j.Logger;
import org.elasticsearch.action.ActionListener;
import org.elasticsearch.action.bulk.BackoffPolicy;
import org.elasticsearch.action.bulk.BulkProcessor;
import org.elasticsearch.action.bulk.BulkRequest;
import org.elasticsearch.action.bulk.BulkResponse;
import org.elasticsearch.action.index.IndexRequest;
import org.elasticsearch.action.search.SearchRequest;
import org.elasticsearch.action.search.SearchResponse;
import org.elasticsearch.client.RequestOptions;
import org.elasticsearch.client.RestHighLevelClient;
import org.elasticsearch.common.unit.ByteSizeUnit;
import org.elasticsearch.common.unit.ByteSizeValue;
import org.elasticsearch.common.unit.TimeValue;
import org.elasticsearch.index.query.QueryBuilder;
import org.elasticsearch.index.query.QueryBuilders;
import org.elasticsearch.search.SearchHit;
import org.elasticsearch.search.builder.SearchSourceBuilder;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import java.io.IOException;
import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.ResultSetMetaData;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.concurrent.TimeUnit;
import java.util.function.BiConsumer;
@Service
public class PositionServiceImpl implements PositionService {
  private static final Logger logger =
LogManager.getLogger(PositionServiceImpl.class);
  @Autowired
  private RestHighLevelClient client;
  private static final String POSITIOIN_INDEX = "position";
  //查找职位
  public List<Map<String, Object>> searchPos(String keyword, int pageNo, int
pageSize) throws IOException {
    if (pageNo <= 1) {
      pageNo = 1;
   }
    //getPosition(keyword);
    //条件搜索
    SearchRequest searchRequest = new SearchRequest(POSITIOIN_INDEX);
    SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    //分页 index = (当前页-1)*一页显示条数
    searchSourceBuilder.from((pageNo - 1) * pageSize);
    searchSourceBuilder.size(pageSize);
    //精准匹配
    //TermQueryBuilder termQueryBuilder =
QueryBuilders.termQuery("positionName",keyword);
    //searchSourceBuilder.query(termQueryBuilder);
    QueryBuilder builder = QueryBuilders.matchQuery("positionName",
keyword);
    searchSourceBuilder.query(builder);
   
    searchSourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));
    //执行搜索
    searchRequest.source(searchSourceBuilder);
    SearchResponse searchResponse = client.search(searchRequest,
RequestOptions.DEFAULT);
    ArrayList<Map<String, Object>> list = new ArrayList<>();
    SearchHit[] hits = searchResponse.getHits().getHits();
    System.out.println(hits.length);
    for (SearchHit hit : hits) {
      list.add(hit.getSourceAsMap());
   }
    return list;
 }
  @Override
  public void importAll() throws IOException {
    writeMysqlDataToES(POSITIOIN_INDEX);
 }
  /** 讲数据批量写入ES中 */
  private  void writeMysqlDataToES(String tableName) {
    BulkProcessor bulkProcessor = getBulkProcessor(client);
     Connection conn = null;
    PreparedStatement ps = null;
    ResultSet rs = null;
    try {
      conn = DBHelper.getConn();
      logger.info("Start handle data :" + tableName);
      String sql = "SELECT * from " + tableName;
      ps = conn.prepareStatement(sql, ResultSet.TYPE_FORWARD_ONLY,
ResultSet.CONCUR_READ_ONLY);
      // 根据自己需要 设置
      ps.setFetchSize(20);
      rs = ps.executeQuery();
      ResultSetMetaData colData = rs.getMetaData();
      ArrayList<HashMap<String, String>> dataList = new
ArrayList<HashMap<String, String>>();
      // bulkProcessor 添加的数据支持的方式并不多,查看其api发现其支持map键值对的
方式,故笔者在此将查出来的数据转换成hashMap方式
      HashMap<String, String> map = null;
      int count = 0;
      String c = null;
      String v = null;
      while (rs.next()) {
        count++;
        map = new HashMap<String, String>(128);
        for (int i = 1; i <= colData.getColumnCount(); i++) {
          c = colData.getColumnName(i);
          v = rs.getString(c);
          map.put(c, v);
       }
        dataList.add(map);
        // 每1万条写一次,不足的批次的最后再一并提交
        if (count % 10000 == 0) {
          logger.info("Mysql handle data number : " + count);
          // 将数据添加到 bulkProcessor 中
          for (HashMap<String, String> hashMap2 : dataList) {
            bulkProcessor.add(
              new IndexRequest(POSITIOIN_INDEX).source(hashMap2));
         }
          // 每提交一次便将map与list清空
          map.clear();
          dataList.clear();
       }
     }
      // 处理未提交的数据
      for (HashMap<String, String> hashMap2 : dataList) {
        bulkProcessor.add(
            new IndexRequest(POSITIOIN_INDEX).source(hashMap2));
        System.out.println(hashMap2);
     }
      logger.info("-------------------------- Finally insert number total
: " + count);
      // 将数据刷新到es, 注意这一步执行后并不会立即生效,取决于bulkProcessor设置的
刷新时间
      bulkProcessor.flush();
      } catch (Exception e) {
      logger.error(e.getMessage());
   } finally {
      try {
        rs.close();
        ps.close();
        conn.close();
        boolean terminatedFlag = bulkProcessor.awaitClose(150L,
          TimeUnit.SECONDS);
        logger.info(terminatedFlag);
     } catch (Exception e) {
        logger.error(e.getMessage());
     }
   }
 }
  private BulkProcessor getBulkProcessor(RestHighLevelClient client) {
    BulkProcessor bulkProcessor = null;
    try {
      BulkProcessor.Listener listener = new BulkProcessor.Listener() {
        @Override
        public void beforeBulk(long executionId, BulkRequest request) {
          logger.info("Try to insert data number : "
                + request.numberOfActions());
       }
        @Override
        public void afterBulk(long executionId, BulkRequest request,
                   BulkResponse response) {
          logger.info("************** Success insert data number : "
              + request.numberOfActions() + " , id: " +
executionId);
       }
        @Override
        public void afterBulk(long executionId, BulkRequest request,
Throwable failure) {
          logger.error("Bulk is unsuccess : " + failure + ",
executionId: " + executionId);
       }
     };
      BiConsumer<BulkRequest, ActionListener<BulkResponse>> bulkConsumer =
(request, bulkListener) -> client
         .bulkAsync(request, RequestOptions.DEFAULT, bulkListener);
     
      BulkProcessor.Builder builder = BulkProcessor.builder(bulkConsumer,
listener);
      builder.setBulkActions(5000);
      builder.setBulkSize(new ByteSizeValue(100L, ByteSizeUnit.MB));
      builder.setConcurrentRequests(10);
      builder.setFlushInterval(TimeValue.timeValueSeconds(100L));
    
 builder.setBackoffPolicy(BackoffPolicy.constantBackoff(TimeValue.timeValueSecon
ds(1L), 3));
      // 注意点:让参数设置生效
       bulkProcessor = builder.build();
   } catch (Exception e) {
      e.printStackTrace();
      try {
        bulkProcessor.awaitClose(100L, TimeUnit.SECONDS);
     } catch (Exception e1) {
        logger.error(e1.getMessage());
     }
   }
    return bulkProcessor;
 }
}

BulkProcessor 官网介绍
https://www.elastic.co/guide/en/elasticsearch/client/java-api/7.3/java-docs-bulk-processor.html
5) 控制器

package com.lagou.es.controller;
import com.fasterxml.jackson.databind.ObjectMapper;
import com.lagou.es.service.PositionService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Controller;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.ResponseBody;
import java.io.IOException;
import java.util.List;
import java.util.Map;
@Controller
public class PositionController {
  @Autowired
  private PositionService service;
  //测试范文页面
  @GetMapping({"/","index"})
  public String indexPage(){
    return "index";
 }
  @GetMapping("/search/{keyword}/{pageNo}/{pageSize}")
  @ResponseBody
  public List<Map<String, Object>> searchPosition(@PathVariable("keyword")
String keyword ,
                          @PathVariable("pageNo") int
pageNo,
                          @PathVariable("pageSize")
int pageSize) throws IOException {
List<Map<String,Object>> list =
service.searchPos(keyword,pageNo,pageSize);
    System.out.println(list);
    return list;
 }
  @RequestMapping("/importAll")
  @ResponseBody
  public String importAll(){
    try {
    service.importAll();
   } catch (IOException e) {
      e.printStackTrace();
   }
    return "success";
 }
}
  1. 启动引导
package com.lagou.es;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
public class SearchApplication {
  public static void main(String[] args) {
    SpringApplication.run(SearchApplication.class, args);
 }
}
  1. 页面index
<!DOCTYPE html>
<html xmlns:th="http://www.w3.org/1999/xhtml">
<head>
  <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  <link rel="stylesheet" href="layout_8a42639.css">
  <link rel="stylesheet"  href="main.html_aio_2_29de31f.css">
  <link rel="stylesheet"  href="main.html_aio_16da111.css">
  <link rel="stylesheet"  href="widgets_03f0f0e.css">
  <script src="https://cdn.jsdelivr.net/npm/vue/dist/vue.js"></script>
  <script src="https://unpkg.com/axios/dist/axios.min.js"></script>
</head>
<body>
<div id="top_bannerC">
  <a rel="nofollow" href="https://zhuanti.lagou.com/qiuzhaozhc.html"
   style="background:
url(https://www.lgstatic.com/i/image/M00/3C/48/CgqCHl8nkiOAOihGAAC5a9EQ2rU358.PN
G) center center no-repeat"
target="_blank" data-lg-tj-id="bd00" data-lg-tj-no="idnull" data-lg-tj-
cid="11127" class=""></a>
</div>
<div id="lg_header" >
  <!-- 页面主体START -->
  <div id="content-container">
    <div class="search-wrapper" style="height: 180px;">
      <div id="searchBar" class="search-bar" style="padding-top: 30px;">
        <div class="tab-wrapper" style="display: block;">
          <a id="tab_pos" class="active" rel="nofollow"
href="javascript:;">职位 ( <span>500+</span> ) </a>
          <a id="tab_comp" class="disabled" rel="nofollow"
href="javascript:;">公司 ( <span>0</span> ) </a>
        </div>
        <div class="input-wrapper" data-lg-tj-track-code="search_search"
data-lg-tj-track-type="1">
          <div class="keyword-wrapper">
            <span role="status" aria-live="polite" class="ui-helper-
hidden-accessible"></span><input
              type="text" id="keyword" v-model="keyword"
autocomplete="off" maxlength="64" placeholder="搜索职位、公司或地点"
              value="java" class="ui-autocomplete-input"
 @keyup.enter="searchPosition">
          </div>
          <input type="button" id="submit"
@click.prevent="searchPosition" value="搜索">
        </div>
      </div>
    </div>
    <!-- 搜索输入框模块 -->
    <div id="main_container">
      <!-- 左侧 -->
      <div class="content_left">
        <div class="s_position_list " id="s_position_list">
          <ul class="item_con_list" style="display: block;">
            <li class="con_list_item default_list"  v-for="element
in results">
              <span class="top_icon direct_recruitment"></span>
              <div class="list_item_top">
                <div class="position">
                  <div class="p_top">
                    <h3 style="max-width: 180px;">
{{element.positionName}}</h3>
                    <span class="add">[<em>
{{element.workAddress}}</em>]</span>
                    <span class="format-time">
{{element.createTime}} 发布</span>
                  </div>
                  <div class="p_bot">
                    <div class="li_b_l">
                      <span class="money">
{{element.salary}}</span>
                     经验{{element.workYear}}年 /
{{element.education}}
                    </div>
                     </div>
                </div>
                <div class="company">
                  <div class="company_name">
                    <a href="#" target="_blank">
{{element.companyName}}</a>
                    <i class="company_mark"><span>该企业已经上
传营业执照并通过资质验证审核</span></i>
                  </div>
                  <div class="industry">
                   福利 【{{element.positionAdvantage}}】
                  </div>
                </div>
                <div class="com_logo">
                  <img
src="//www.lgstatic.com/thumbnail_120x120/i/image2/M01/79/70/CgotOV1aS4qAWK6WAAA
M4NTpXws809.png"
                    alt="拉勾渠道" width="60" height="60">
                </div>
              </div>
            </li>
          </ul>
        </div>
      </div>
    </div>
  </div>
</div>
</div>
</body>
<script>
  new Vue({
    el: "#lg_header",
    data: {
      keyword : "", //搜索关键字
      results : []  //查询结果
   },
    methods : {
      searchPosition(){
       var keyword =  this.keyword;
       console.log(keyword);
      
axios.get('http://localhost:8083/search/'+keyword+'/1/10').then(response=>{
         console.log(response.data);
         this.results = response.data;
       })
     }
   }
 })
</script>
</html>

第七部分 玩转Elasticsearch之深度应用及原理剖析

第1节 索引文档写入和近实时搜索原理

基本概念
Segments in Lucene
众所周知,Elasticsearch 存储的基本单元是 shard , ES 中一个 Index 可能分为多个 shard, 事实上每个 shard 都是一个 Lucence 的 Index,并且每个 Lucence Index 由多个 Segment 组成, 每个Segment 事实上是一些倒排索引的集合, 每次创建一个新的 Document , 都会归属于一个新的Segment, 而不会去修改原来的 Segment 。且每次的文档删除操作,会仅仅标记 Segment 中该文档为删除状态, 而不会真正的立马物理删除, 所以说 ES 的 index 可以理解为一个抽象的概念。 就像下图所示:
在这里插入图片描述
Commits in Lucene
Commit 操作意味着将 Segment 合并,并写入磁盘。保证内存数据尽量不丢。但刷盘是很重的 IO 操作, 所以为了机器性能和近实时搜索, 并不会刷盘那么及时。
Translog
新文档被索引意味着文档会被首先写入内存 buffer 和 translog 文件。每个 shard 都对应一个 translog文件
在这里插入图片描述
Refresh in Elasticsearch
在 Elasticsearch 中, _refresh 操作默认每秒执行一次, 意味着将内存 buffer 的数据写入到一个新的 Segment 中,这个时候索引变成了可被检索的。写入新Segment后 会清空内存buffer。
在这里插入图片描述
Flush in Elasticsearch
Flush 操作意味着将内存 buffer 的数据全都写入新的 Segments 中, 并将内存中所有的 Segments
全部刷盘, 并且清空 translog 日志的过程。

在这里插入图片描述
近实时搜索
提交(Commiting)一个新的段到磁盘需要一个 fsync 来确保段被物理性地写入磁盘,这样在断电的时候就不会丢失数据。 但是 fsync 操作代价很大; 如果每次索引一个文档都去执行一次的话会造成很大的性能问题。
我们需要的是一个更轻量的方式来使一个文档可被搜索,这意味着 fsync 要从整个过程中被移除。在 Elasticsearch 和磁盘之间是文件系统缓存。 像之前描述的一样, 在内存索引缓冲区中的文档会被写入到一个新的段中。 但是这里新段会被先写入到文件系统缓存–这一步代价会比较低,稍后再被刷新到磁盘–这一步代价比较高。不过只要文件已经在系统缓存中, 就可以像其它文件一样被打开和读取了。
图 19. 在内存缓冲区中包含了新文档的 Lucene 索引
在这里插入图片描述
Lucene 允许新段被写入和打开–使其包含的文档在未进行一次完整提交时便对搜索可见。 这种方式比
进行一次提交代价要小得多,并且在不影响性能的前提下可以被频繁地执行。
图 20. 缓冲区的内容已经被写入一个可被搜索的段中,但还没有进行提交
在这里插入图片描述
原理
下图表示是 es 写操作流程,当一个写请求发送到 es 后,es 将数据写入 memory buffer 中,并添加事务日志( translog )。如果每次一条数据写入内存后立即写到硬盘文件上,由于写入的数据肯定是离散的,因此写入硬盘的操作也就是随机写入了。硬盘随机写入的效率相当低,会严重降低es的性能。
因此 es 在设计时在 memory buffer 和硬盘间加入了 Linux 的高速缓存( File system cache )来提高 es 的写效率。
当写请求发送到 es 后,es 将数据暂时写入 memory buffer 中,此时写入的数据还不能被查询到。默认设置下,es 每1秒钟将 memory buffer 中的数据 refresh 到 Linux 的 File system cache ,并清空 memory buffer ,此时写入的数据就可以被查询到了。
在这里插入图片描述
refresh API
在 Elasticsearch 中,写入和打开一个新段的轻量的过程叫做 refresh 。 默认情况下每个分片会每秒自动刷新一次。这就是为什么我们说 Elasticsearch 是 近 实时搜索: 文档的变化并不是立即对搜索可见,但会在一秒之内变为可见。
这些行为可能会对新用户造成困惑: 他们索引了一个文档然后尝试搜索它,但却没有搜到。这个问题的解决办法是用 refresh API 执行一次手动刷新:

1. POST /_refresh
2. POST /my_blogs/_refresh
3. PUT  /my_blogs/_doc/1?refresh
{"test": "test"}
PUT /test/_doc/2?refresh=true
{"test": "test"}
1. 刷新(Refresh)所有的索引。
2. 只刷新(Refresh)  blogs 索引
3. 只刷新 文档

并不是所有的情况都需要每秒刷新。可能你正在使用 Elasticsearch 索引大量的日志文件, 你可能想优化索引速度而不是近实时搜索, 可以通过设置 refresh_interval , 降低每个索引的刷新频率

PUT /my_logs
{ 
 "settings": {  "refresh_interval": "30s" }
}

refresh_interval 可以在既存索引上进行动态更新。 在生产环境中,当你正在建立一个大的新索引时,可以先关闭自动刷新,待开始使用该索引时,再把它们调回来:

PUT /my_logs/_settings
{  "refresh_interval":  -1 }
PUT /my_logs/_settings
{  "refresh_interval":  "1s" }

持久化变更
原理
如果没有用 fsync 把数据从文件系统缓存刷(flush)到硬盘,我们不能保证数据在断电甚至是程序正常退出之后依然存在。为了保证 Elasticsearch 的可靠性,需要确保数据变化被持久化到磁盘。在动态更新索引时,我们说一次完整的提交会将段刷到磁盘,并写入一个包含所有段列表的提交点。Elasticsearch 在启动或重新打开一个索引的过程中使用这个提交点来判断哪些段隶属于当前分片。即使通过每秒刷新(refresh)实现了近实时搜索,我们仍然需要经常进行完整提交来确保能从失败中恢复。但在两次提交之间发生变化的文档怎么办?我们也不希望丢失掉这些数据。
Elasticsearch 增加了一个 translog ,或者叫事务日志,在每一次对 Elasticsearch 进行操作时均进行了日志记录。通过 translog ,整个流程看起来是下面这样:

  1. 一个文档被索引之后,就会被添加到内存缓冲区,并且 追加到了 translog ,正如 图21描述的一样。
    图 21. 新的文档被添加到内存缓冲区并且被追加到了事务日志
    在这里插入图片描述
  2. 刷新(refresh)使分片处于 图 22描述的状态,分片每秒被刷新(refresh)一次:
    这些在内存缓冲区的文档被写入到一个新的段中,且没有进行 fsync 操作。
    这个段被打开,使其可被搜索。
    内存缓冲区被清空。
    图 22. 刷新(refresh)完成后, 缓存被清空但是事务日志不会
    在这里插入图片描述
  3. 这个进程继续工作,更多的文档被添加到内存缓冲区和追加到事务日志(见 图 23 )。
    图23事务日志不断积累文档
    在这里插入图片描述
  4. 每隔一段时间–例如 translog 变得越来越大–索引被刷新(flush);一个新的 translog 被创建,
    并且一个全量提交被执行(见 图 24):
    所有在内存缓冲区的文档都被写入一个新的段。
    缓冲区被清空。
    一个提交点被写入硬盘。
    文件系统缓存通过 fsync 被刷新(flush)。
    老的 translog 被删除。
    translog 提供所有还没有被刷到磁盘的操作的一个持久化纪录。当 Elasticsearch 启动的时候, 它会从磁盘中使用最后一个提交点去恢复已知的段,并且会重放 translog 中所有在最后一次提交后发生的变更操作。
    translog 也被用来提供实时 CRUD 。当你试着通过 ID 查询、更新、删除一个文档,它会在尝试从相应的段中检索之前, 首先检查 translog 任何最近的变更。这意味着它总是能够实时地获取到文档的最新版本。
    图 24. 在刷新(flush)之后,段被全量提交,并且事务日志被清空
    在这里插入图片描述
    flush API
    这个执行一个提交并且截断 translog 的行为在 Elasticsearch 被称作一次 flush 。 分片每 30 分钟被自
    动刷新(flush),或者在 translog 太大的时候也会刷新。
    flush API 可以 被用来执行一个手工的刷新(flush):
POST /blogs/_flush
POST /_flush?wait_for_ongoin
  1. 刷新(flush) blogs 索引。
  2. 刷新(flush)所有的索引并且等待所有刷新在返回前完成。
    我们很少需要自己手动执行一个的 flush 操作;通常情况下,自动刷新就足够了。
    这就是说,在重启节点或关闭索引之前执行 flush有益于你的索引。当 Elasticsearch 尝试恢复或重新打开一个索引, 它需要重放 translog 中所有的操作,所以如果日志越短,恢复越快。
Translog 有多安全?
translog 的目的是保证操作不会丢失。这引出了这个问题: Translog 有多安全?
在文件被  fsync 到磁盘前,被写入的文件在重启之后就会丢失。默认 translog 是每 5 秒被
fsync 刷新到硬盘, 或者在每次写请求完成之后执行(e.g. index, delete, update, bulk)。这个过
程在主分片和复制分片都会发生。最终, 基本上,这意味着在整个请求被  fsync 到主分片和复
制分片的 translog 之前,你的客户端不会得到一个 200 OK 响应。
在每次写请求后都执行一个 fsync 会带来一些性能损失,尽管实践表明这种损失相对较小(特别
是 bulk 导入,它在一次请求中平摊了大量文档的开销)。
但是对于一些大容量的偶尔丢失几秒数据问题也并不严重的集群,使用异步的 fsync 还是比较有
益的。比如,写入的数据被缓存到内存中,再每 5 秒执行一次  fsync 。
这个行为可以通过设置  durability 参数为  async 来启用:
PUT /my_index/_settings {
"index.translog.durability":  "async",
"index.translog.sync_interval":  "5s"
}

这个选项可以针对索引单独设置,并且可以动态进行修改。如果你决定使用异步 translog 的话,你需要 保证 在发生 crash 时,丢失掉 sync_interval 时间段的数据也无所谓。请在决定前知晓这个特性。
如果你不确定这个行为的后果,最好是使用默认的参数( “index.translog.durability”:“request” )来避免数据丢失。

第2节 索引文档存储段合并机制(segment merge、policy、optimize)

段合并机制
由于自动刷新流程每秒会创建一个新的段 ,这样会导致短时间内的段数量暴增。而段数目太多会带来较大的麻烦。 每一个段都会消耗文件句柄、内存和 CPU 运行周期。更重要的是,每个搜索请求都必须轮流检查每个段;所以段越多,搜索也就越慢。
Elasticsearch 通过在后台进行段合并来解决这个问题。小的段被合并到大的段,然后这些大的段再被合并到更大的段。段合并的时候会将那些旧的已删除文档 从文件系统中清除。 被删除的文档(或被更新文档的旧版本)不会被拷贝到新的大段中。
启动段合并在进行索引和搜索时会自动进行。这个流程像在 图 25 中提到的一样工作:
1、 当索引的时候,刷新(refresh)操作会创建新的段并将段打开以供搜索使用。
2、 合并进程选择一小部分大小相似的段,并且在后台将它们合并到更大的段中。这并不会中断索引和搜索。
图 25. 两个提交了的段和一个未提交的段正在被合并到一个更大的段
在这里插入图片描述
3、合并完成时的活动:
新的段被刷新(flush)到了磁盘。 写入一个包含新段且排除旧的和较小的段的新提交点。
新的段被打开用来搜索。
老的段被删除
图 26. 一旦合并结束,老的段被删除在这里插入图片描述
合并大的段需要消耗大量的 I/O 和 CPU 资源,如果任其发展会影响搜索性能。Elasticsearch 在默认情况下会对合并流程进行资源限制,所以搜索仍然 有足够的资源很好地执行。默认情况下,归并线程的限速配置 indices.store.throttle.max_bytes_per_sec 是 20MB。对于写入量较大,磁盘转速较高,甚至使用 SSD 盘的服务器来说,这个限速是明显过低的。对于 ELK Stack 应用,建议可以适当调大到100MB或者更高。

PUT /_cluster/settings
{
  "persistent" : {
    "indices.store.throttle.max_bytes_per_sec" : "100mb"
 }
}

用于控制归并线程的数目,推荐设置为cpu核心数的一半。 如果觉得自己磁盘性能跟不上,可以降低配置,免得IO情况瓶颈。
index.merge.scheduler.max_thread_count
归并策略 policy

归并线程是按照一定的运行策略来挑选 segment 进行归并的。主要有以下几条:
index.merge.policy.floor_segment 默认 2MB,小于这个大小的 segment,优先被归并。
index.merge.policy.max_merge_at_once 默认一次最多归并 10 个 segment
index.merge.policy.max_merge_at_once_explicit 默认 optimize 时一次最多归并 30 个segment。
index.merge.policy.max_merged_segment 默认 5 GB,大于这个大小的 segment,不用参与归并。optimize 除外

optimize API
optimize API 大可看做是 强制合并 API。它会将一个分片强制合并到 max_num_segments 参数指定大小的段数目。 这样做的意图是减少段的数量(通常减少到一个),来提升搜索性能。
在特定情况下,使用 optimize API 颇有益处。例如在日志这种用例下,每天、每周、每月的日志被存储在一个索引中。 老的索引实质上是只读的;它们也并不太可能会发生变化。在这种情况下,使用optimize 优化老的索引,将每一个分片合并为一个单独的段就很有用了;这样既可以节省资源,也可以
使搜索更加快速:
POST /logstash-2014-10/_optimize?max_num_segments=1
forceMergeRequest.maxNumSegments(1)

第3节 并发冲突处理机制剖析

1. 详解并发冲突

在电商场景下,工作流程为:

  1. 读取商品信息,包括库存数量
  2. 用户下单购买
  3. 更新商品信息,将库存数减一
    如果是多线程操作,就可能有多个线程并发的去执行上述的3步骤流程,假如此时有两个人都来读取商品数据,两个线程并发的服务于两个人,同时在进行商品库存数据的修改。假设库存为100件 正确的情况:线程A将库存-1,设置为99件,线程B接着读取99件,再-1,变为98件。如果A,B线程都读取的为100件,A处理完之后修改为99件,B处理完之后再次修改为99件,此时结果就出错了。

2. 解决方案

2.1 悲观锁

顾名思义,就是很悲观,每次去拿数据的时候都认为被人会修改,所以每次拿数据的时候都会加锁,以防别人修改,直到操作完成后,才会被别人执行。常见的关系型数据库,就用到了很多这样的机制,如行锁,表锁,写锁,都是在操作之前加锁。
悲观锁的优点:方便,直接加锁,对外透明,不需要额外的操作。
悲观锁的缺点:并发能力低,同一时间只能有一个操作。
在这里插入图片描述

2.2 乐观锁

乐观锁不加锁,每个线程都可以任意操作。比如每条文档中有一个version字段,新建文档后为1,修改一次累加,线程A,B同时读取到数据,version=1,A处理完之后库存为99,在写入es的时候会跟es中的版本号比较,都是1,则写入成功,version=2,B处理完之后也为99,存入es时与es中的数据的版本号version=2相比,明显不同,此时不会用99去更新,而是重新读取最新的数据,再减一,变为98,执行上述操作写入。
在这里插入图片描述

2.3 Elasticsearch的乐观锁

Elasticsearch的后台都是多线程异步的,多个请求之间是乱序的,可能后修改的先到,先修改的后到
Elasticsearch的多线程异步并发修改是基于自己的_version版本号进行乐观锁并发控制的。在后修改的先到时,比较版本号,版本号相同修改可以成功,而当先修改的后到时,也会比较一下_version版本号,如果不相等就再次读取新的数据修改。这样结果会就会保存为一个正确状态删除操作也会对这条数据的版本号加1
在删除一个document之后,可以从一个侧面证明,它不是立即物理删除掉的,因为它的一些版本号等信息还是保留着的。先删除一条document,再重新创建这条document,其实会在delete version基础之上,再把version号加1

2.4 es的乐观锁并发控制示例

先新建一条数据

PUT /test_index/_doc/4
{
 "test_field": "test"
}

模拟两个客户端,都获取到了同一条数据

GET /test_index/_doc/4
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "4",
 "_version" : 1,
 "_seq_no" : 0,
 "_primary_term" : 1,
 "found" : true,
 "_source" : {
  "test_field" : "test"
}
}

其中一个客户端,先更新了一下这个数据, 同时带上数据的版本号,确保说,es中的数据的版本号,跟客户端中的数据的版本号(_seq_no)是相同的,才能修改

PUT /test_index/_doc/4
{
 "test_field": "client1 changed"
}
返回结果
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "4",
 "_version" : 2,
 "result" : "updated",
 "_shards" : {
  "total" : 2,
  "successful" : 2,
  "failed" : 0
},
 "_seq_no" : 1,
 "_primary_term" : 1
}

另外一个客户端,尝试基于version=1的数据去进行修改,同样带上(if_seq_no和if_primary_term)version版本号,进行乐观锁的并发控制

PUT /test_index/_doc/4?if_seq_no=0&if_primary_term=1
{
 "test_field": "client2 changed"
}
会出错,返回
{
 "error": {
  "root_cause": [
  {
    "type": "version_conflict_engine_exception",
    "reason": "[4]: version conflict, required seqNo [0], primary term
[1]. current document has seqNo [1] and primary term [1]",
    "index_uuid": "RLebBAGvR9iWdUoi3t5bXw",
    "shard": "0",
    "index": "test_index"
  }
 ],
  "type": "version_conflict_engine_exception",
  "reason": "[4]: version conflict, required seqNo [0], primary term [1].
current document has seqNo [1] and primary term [1]",
  "index_uuid": "RLebBAGvR9iWdUoi3t5bXw",
  "shard": "0",
  "index": "test_index"
},
 "status": 409
}

乐观锁就成功阻止并发问题
在乐观锁成功阻止并发问题之后,尝试正确的完成更新
重新进行GET请求,得到 version

GET /test_index/_doc/4
结果
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "4",
 "_version" : 2,
 "_seq_no" : 1,
 "_primary_term" : 1,
 "found" : true,
 "_source" : {
  "test_field" : "client1 changed"
}
}

基于最新的数据和版本号(以前是version 现在是if_seq_no和if_primary_term ),去进行修改,修改后,带上最新的版本号,可能这个步骤会需要反复执行好几次,才能成功,特别是在多线程并发更新同一条数据很频繁的情况下

PUT /test_index/_doc/4?if_seq_no=1&if_primary_term=1
{
 "test_field": "client2 changed"
}
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "4",
 "_version" : 3,
 "result" : "updated",
 "_shards" : {
  "total" : 2,
  "successful" : 2,
  "failed" : 0
},
 "_seq_no" : 2,
 "_primary_term" : 1
}

模拟两个客户端同时查询到这条数据

GET /test_index/_doc/5
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "5",
 "_version" : 1,
 "_seq_no" : 3,
 "_primary_term" : 1,
 "found" : true,
 "_source" : {
  "test_field" : "external test"
}
}

第一个客户端先进行修改,此时客户端程序是在自己的数据库中获取到了这条数据的最新版本号,比如说是2

PUT /test_index/_doc/5?version=2&version_type=external
{
 "test_field": "external client1 changed"
}
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "5",
 "_version" : 2,
 "result" : "updated",
 "_shards" : {
  "total" : 2,
  "successful" : 2,
  "failed" : 0
},
 "_seq_no" : 4,
 "_primary_term" : 1
}

模拟第二个客户端,同时拿到了自己数据库中维护的那个版本号,也是2,同时基于version=2发起了修改

PUT /test_index/_doc/5?version=2&version_type=external
{
 "test_field": "external client2 changed"
}
会出错,返回
{
 "error": {
  "root_cause": [
  {
    "type": "version_conflict_engine_exception",
    "reason": "[5]: version conflict, current version [2] is higher or
equal to the one provided [2]",
    "index_uuid": "RLebBAGvR9iWdUoi3t5bXw",
    "shard": "0",
    "index": "test_index"
  }
 ],
  "type": "version_conflict_engine_exception",
  "reason": "[5]: version conflict, current version [2] is higher or equal
to the one provided [2]",
  "index_uuid": "RLebBAGvR9iWdUoi3t5bXw",
  "shard": "0",
  "index": "test_index"
},
 "status": 409
}

在并发控制成功后,重新基于最新的版本号发起更新

GET /test_index/_doc/5
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "5",
 "_version" : 2,
 "_seq_no" : 4,
 "_primary_term" : 1,
 "found" : true,
 "_source" : {
  "test_field" : "external client1 changed"
}
}
PUT /test_index/_doc/5?version=3&version_type=external
{
 "test_field": "external client2 changed"
}
返回
{
 "_index" : "test_index",
 "_type" : "_doc",
 "_id" : "5",
 "_version" : 3,
 "result" : "updated",
 "_shards" : {
  "total" : 2,
  "successful" : 2,
  "failed" : 0
  },
 "_seq_no" : 5,
 "_primary_term" : 1
}

第4节 分布式数据一致性如何保证?quorum及timeout机制的原理

在分布式环境下,一致性指的是多个数据副本是否能保持一致的特性。
在一致性的条件下,系统在执行数据更新操作之后能够从一致性状态转移到另一个一致性状态。
对系统的一个数据更新成功之后,如果所有用户都能够读取到最新的值,该系统就被认为具有强一致性。
1、ES5.0以前的一致性
consistency,one(primary shard),all(all shard),quorum(default)
我们在发送任何一个增删改操作的时候,比如 PUT /index/indextype/id ,都可以带上一个consistency参数,指明我们想要的写一致性是什么?PUT /index/indextype/id?consistency=quorum
one:要求我们这个写操作,只要有一个primary shard是active状态,就可以执行。
all:要求我们这个写操作,必须所有的primary shard和replica shard都是活跃的,才可以执行这个写操作。
quorum:默认值,要求所有的shard中,必须是法定数的shard都是活跃的,可用的,才可以执行这个写操作。
2、quorum机制
写之前必须确保法定数shard可用
(1)公式:

int((primary shard + number_of_replicas) / 2) + 1
当number_of_replicas > 1时才生效。
3 primary shard + 1 = 6 shard  ---> 3

(2)举例
比如:
1个primary shard,3个replica。那么
quorum=((1 + 3) / 2) + 1 = 3,要求3个primary shard+1个replica shard=4个shard中必须有3个shard是要处于active状态,若这时候只有两台机器的话,会出现什么情况?
在这里插入图片描述
3.timeout机制
quorum不齐全时,会wait(等待)1分钟

默认1分钟,可以设置timeout手动去调,默认单位毫秒。
等待期间,期望活跃的shard数量可以增加,最后无法满足shard数量就会timeout,我们其实可以在写操
作的时候,加一个timeout参数,比如说PUT /index/_doc/id?timeout=30s,这个就是说自己去设定
quorum不齐全的时候,ES的timeout时长。默认是毫秒,加个s代表秒

4.ElasticSearch5.0以及以后的版本
从ES5.0后,原先执行put 带 consistency=all / quorum 参数的,都报错了,提示语法错误。
原因是consistency检查是在Put之前做的。然而,虽然检查的时候,shard满足quorum,但是真正从primary shard写到replica之前,仍会出现shard挂掉,但Update Api会返回succeed。因此,这个检查并不能保证replica成功写入,甚至这个primary shard是否能成功写入也未必能保证。
因此,修改了语法,用了 下面的 wait_for_active_shards,因为这个更能清楚表述,而没有歧义。
例子:

PUT /test_index/_doc/1?wait_for_active_shards=2&timeout=10s
{
  "name":"xiao mi"
}

第5节 Query文档搜索机制剖析

Elasticsearch的搜索类型(SearchType类型)
2.0之前四种 QUERY_AND_FETCH, DFS_QUERY_AND_FETCH, QUERY_THEN_FETCH,DFS_QUERY_THEN_FETCH
2.0版本之后 只有两种了

public enum SearchType {
  DFS_QUERY_THEN_FETCH((byte)0),
  QUERY_THEN_FETCH((byte)1);
  public static final SearchType DEFAULT = QUERY_THEN_FETCH;
  public static final SearchType[] CURRENTLY_SUPPORTED = new SearchType[]
{QUERY_THEN_FETCH, DFS_QUERY_THEN_FETCH};
} 

可以通过java的API 设置

SearchRequest  searchRequest = new SearchRequest(POSITION_INDEX);
searchRequest.setSearchType(SearchType.DFS_QUERY_THEN_FETCH)

1)query and fetch
向索引的所有分片 ( shard)都发出查询请求, 各分片返回的时候把元素文档 ( document)和计算后的排名信息一起返回。
这种搜索方式是最快的。 因为相比下面的几种搜索方式, 这种查询方法只需要去 shard查询一次。 但是各个 shard 返回的结果的数量之和可能是用户要求的 size 的 n 倍。
优点:这种搜索方式是最快的。因为相比后面的几种es的搜索方式,这种查询方法只需要去shard查询一次。
缺点:返回的数据量不准确, 可能返回(N分片数量)的数据并且数据排名也不准确,同时各个shard返回的结果的数量之和可能是用户要求的size的n倍。
2) DFS query and fetch
这个D是Distributed,F是frequency的缩写,至于S是Scatter的缩写,整个DFS是分布式词频率和文档频率散发的缩写。 DFS 其实就是在进行真正的查询之前, 先把各个分片的词频率和文档频率收集一下, 然后进行词搜索的时候, 各分片依据全局的词频率和文档频率进行搜索和排名。这种方式比第一种方式多了一个 DFS 步骤(初始化散发(initial scatter)),可以更精确控制搜索打分和排名。也就是在进行查询之前,先对所有分片发送请求, 把所有分片中的词频和文档频率等打分依据全部汇总到一块,再执行后面的操作。
优点:数据排名准确
缺点:
性能一般
返回的数据量不准确, 可能返回(N
分片数量)的数据
3) query then fetch(es 默认的搜索方式)
如果你搜索时, 没有指定搜索方式, 就是使用的这种搜索方式。 这种搜索方式, 大概分两个步
骤:
第一步, 先向所有的 shard 发出请求, 各分片只返回文档 id(注意, 不包括文档 document)和排
名相关的信息(也就是文档对应的分值), 然后按照各分片返回的文档的分数进行重新排序和排名, 取前
size 个文档。
第二步, 根据文档 id 去相关的 shard 取 document。 这种方式返回的 document 数量与用户要
求的大小是相等的。
详细过程:

1.发送查询到每个shard
2.找到所有匹配的文档,并使用本地的Term/Document Frequency信息进行打分
3.对结果构建一个优先队列(排序,标页等)
4.返回关于结果的元数据到请求节点。注意,实际文档还没有发送,只是分数
5.来自所有shard的分数合并起来,并在请求节点上进行排序,文档被按照查询要求进行选择
6.最终,实际文档从他们各自所在的独立的shard上检索出来
7.结果被返回给用户

优点:返回的数据量是准确的。
缺点:性能一般,并且数据排名不准确。
4) DFS query then fetch
比第 3 种方式多了一个 DFS 步骤。
也就是在进行查询之前, 先对所有分片发送请求, 把所有分片中的词频和文档频率等打分依据全部汇总到一块, 再执行后面的操作、
详细步骤:

1.预查询每个shard,询问Term和Document frequency
2.发送查询到每个shard
3.找到所有匹配的文档,并使用全局的Term/Document Frequency信息进行打分
4.对结果构建一个优先队列(排序,标页等)
5.返回关于结果的元数据到请求节点。注意,实际文档还没有发送,只是分数
6.来自所有shard的分数合并起来,并在请求节点上进行排序,文档被按照查询要求进行选择
7.最终,实际文档从他们各自所在的独立的shard上检索出来
8.结果被返回给用户

优点:
返回的数据量是准确的
数据排名准确
缺点:
性能最差【 这个最差只是表示在这四种查询方式中性能最慢, 也不至于不能忍受,如果对查询性能要求不是非常高, 而对查询准确度要求比较高的时候可以考虑这个】

第6节 文档增删改和搜索请求过程

在这里插入图片描述
增删改流程
(1)客户端首先会选择一个节点node发送请求过去,这个节点node可能是协调节点coordinatingnode
(2)协调节点coordinating node会对document数据进行路由,将请求转发给对应的node(含有primary shard)
(3)实际上node的primary shard会处理请求,然后将数据同步到对应的含有replica shard的node
(4)协调节点coordinating node如果发现含有primary shard的node和所有的含有replica shard的node符合要求的数量之后,就会返回响应结果给客户端
search流程
1、客户端首先会选择一个节点node发送请求过去,这个节点node可能是协调节点coordinating node
2、协调节点将搜索请求转发到所有的shard对应的primary shard 或 replica shard ,都可以。
3、query phase:每个shard将自己的搜索结果的元数据到请求节点(其实就是一些doc id和 打分信息等返回给协调节点),由协调节点进行数据的合并、排序、分页等操作,产出最终结果。
4、fetch phase:接着由协调节点根据doc id去各个节点上拉取实际的document数据,最终返回给客户端。

第7节 相关性评分算法BM25

BM25算法
BM25(Best Match25)是在信息检索系统中根据提出的query对document进行评分的算法。
TF-IDF 算法是一个可用的算法,但并不太完美。而BM25算法则是在此之上做出改进之后的算法。

  1. 当两篇描述“人工智能”的文档A和B,其中A出现“人工智能”100次,B出现“人工智能”200次。两篇文章的单词数量都是10000,那么按照 TF-IDF 算法,A的 tf 得分是:0.01,B的 tf 得分是0.02。得分上B比A多了一倍,但是两篇文章都是再说人工智能, tf 分数不应该相差这么多。可见单纯统计的 tf 算法在文本内容多的时候是不可靠的
  2. 多篇文档内容的长度长短不同,对 tf 算法的结果也影响很大,所以需要将文本的平均长度也考虑到算法当中去。
    基于上面两点,BM25算法做出了改进
    在这里插入图片描述
    k1:词语频率饱和度(term frequency saturation)它用于调节饱和度变化的速率。它的值一般介于 1.2 到 2.0 之间。数值越低则饱和的过程越快速。(意味着两个上面A、B两个文档有相同的分数,因为他们都包含大量的“人工智能”这个词语都达到饱和程度)。在ES应用中为1.2
    b:字段长度归约,将文档的长度归约化到全部文档的平均长度,它的值在 0 和 1 之间,1 意味着全部归约化,0 则不进行归约化。在ES的应用中为0.75。
    k1 用来控制公式对词项频率 tf 的敏感程度。((k1 + 1) * tf) / (k1 + tf) 的上限是 (k1+1),也即饱和值。当k1=0 时,不管 tf 如何变化,BM25 后一项都是 1;随着 k1 不断增大,虽然上限值依然是 (k1+1),但到达饱和的 tf 值也会越大;当 k1 无限大时,BM25 后一项就是原始的词项频率。一句话,k1 就是衡量高频 term 所在文档和低频 term 所在文档的相关性差异,在我们的场景下,term 频次并不重要,该值可以设小。ES 中默认 k1=1.2,可调整为 k1=0.3。
    在这里插入图片描述
    b 单个文档长度对相关性的影响力与它和平均长度的比值有关系,用来控制文档长度 L 对权值的惩罚程度。b=0,则文档长度对权值无影响,b=1,则文档长度对权值达到完全的惩罚作用。ES 中默认b=0.75,可调整为 b=0.1。
    在这里插入图片描述
    ES中调整BM25
DELETE  /my_index
PUT /my_index
{
 "settings": {
  "similarity": {
   "my_bm25": {
    "type": "BM25",
    "b": 0.1,
    "k1": 0.3
  }
 }
},
 "mappings": {
  "doc": {
   "properties": {
    "title": {
     "type": "text",
     "similarity": "my_bm25"
   }
  }
 }
}
}
ES7
PUT /my_index
{
 "settings": {
  "similarity": {
   "my_bm25": {
    "type": "BM25",
    "b": 0.1,
    "k1": 0.3
  }
 }
},
 "mappings": {
 "properties": {
   "title": {
    "type": "text",
    "similarity": "my_bm25"
  }
 }
}
}
GET  /my_index

第8节 排序那点事之内核级DocValues机制大揭秘

1.为什么要有 Doc Values
我们都知道 ElasticSearch 之所以搜索这么快速,归功于他的 倒排索引 的设计,然而它也不是万能的,倒排索引的检索性能是非常快的,但是在字段值排序时却不是理想的结构。下面是一个简单的 倒排索引 的结构
在这里插入图片描述

如上表便可以看出,他只有词对应的 doc ,但是并不知道每一个 doc 中的内容,那么如果想要排序的话每一个 doc 都去获取一次文档内容岂不非常耗时? DocValues 的出现使得这个问题迎刃而解。
字段的 doc_values 属性有两个值, true、false。默认为 true ,即开启。
当 doc_values 为 fasle 时,无法基于该字段排序、聚合、在脚本中访问字段值。
当 doc_values 为 true 时,ES 会增加一个相应的正排索引,这增加的磁盘占用,也会导致索引数据速度慢一些
举例:

DELETE  /person
PUT  /person
{
 "mappings" : {
  "properties" : {
   "name" : {
   "type" : "keyword",
    "doc_values": true
  },
   "age" : {
    "type" : "integer",
    "doc_values": false
  }
 }
}
}
POST _bulk
{ "index" : { "_index" : "person", "_id" : "1" } }
{ "name" : "明明", "age": 22 }
{ "index" : { "_index" : "person", "_id" : "2" } }
{ "name" : "丽丽", "age": 18 }
{ "index" : { "_index" : "person", "_id" : "3" } }
{ "name" : "媛媛", "age": 19 }
POST /person/_search
{
 "query": {
  "match_all": {}
},
 "sort" : [
 {"name": {"order": "desc"}}
]
}
POST /person/_search
{
 "query": {
  "match_all": {}
},
 "sort" : [
 {"age": {"order": "desc"}}
]
}
POST /person/_search
{
 "query": {
  "match_all": {}
},
 "size":0,
 "aggs": {
  "max_age": {
   "max": {
    "field": "age"
  }
 }
}
}

2.Doc Values 是什么
Docvalues 通过转置倒排索引和正排索引两者间的关系来解决这个问题。倒排索引将词项映射到包含它们的文档, Docvalues 将文档映射到它们包含的词项:
在这里插入图片描述
当数据被转置之后,想要收集到每个文档行,获取所有的词项就非常简单了。所以搜索使用倒排索引查找文档,聚合操作收集和聚合 DocValues 里的数据,这就是 ElasticSearch 。
3.深入理解 ElasticSearch Doc Values
DocValues 是在索引时与倒排索引同时生成。也就是说 DocValues 和 倒排索引 一样,基于Segement 生成并且是不可变的。同时 DocValues 和 倒排索引 一样序列化到磁盘,这样对性能和扩展性有很大帮助。
DocValues 通过序列化把数据结构持久化到磁盘,我们可以充分利用操作系统的内存,而不是 JVM 的Heap 。 当 workingset 远小于系统的可用内存,系统会自动将 DocValues 保存在内存中,使得其读写十分高速; 不过,当其远大于可用内存时,操作系统会自动把 DocValues 写入磁盘。很显然,这样性能会比在内存中差很多,但是它的大小就不再局限于服务器的内存了。如果是使用 JVM 的 Heap来
实现是因为容易 OutOfMemory 导致程序崩溃了。
4.Doc Values 压缩
从广义来说, DocValues 本质上是一个序列化的 列式存储,这个结构非常适用于聚合、排序、脚本等操作。而且,这种存储方式也非常便于压缩,特别是数字类型。这样可以减少磁盘空间并且提高访问速度。下面来看一组数字类型的 DocValues :
在这里插入图片描述
你会注意到这里每个数字都是 100 的倍数, DocValues 会检测一个段里面的所有数值,并使用一个最大公约数 ,方便做进一步的数据压缩。我们可以对每个数字都除以 100,然后得到:[1,10,15,12,3,19,42] 。现在这些数字变小了,只需要很少的位就可以存储下,也减少了磁盘存放的大小。
DocValues 在压缩过程中使用如下技巧。它会按依次检测以下压缩模式:
如果所有的数值各不相同(或缺失),设置一个标记并记录这些值
如果这些值小于 256,将使用一个简单的编码表
如果这些值大于 256,检测是否存在一个最大公约数
如果没有存在最大公约数,从最小的数值开始,统一计算偏移量进行编码
当然如果存储 String 类型,其一样可以通过顺序表对 String 类型进行数字编码,然后再把数字类型构建 DocValues 。
5.禁用 Doc Values
DocValues 默认对所有字段启用,除了 analyzed strings 。也就是说所有的数字、地理坐标、日期、IP 和不分析( not_analyzed )字符类型都会默认开启。analyzed strings 暂时还不能使用 DocValues ,是因为经过分析以后的文本会生成大量的Token ,这样非常影响性能。
虽然 DocValues 非常好用,但是如果你存储的数据确实不需要这个特性,就不如禁用他,这样不仅节省磁盘空间,也许会提升索引的速度。要禁用 DocValues ,在字段的映射(mapping)设置 doc_values:false 即可。例如,这里我们创建了一个新的索引,字段 “session_id” 禁用了 DocValues :

DELETE  /my_index
PUT my_index
{
 "mappings": {
   "properties": {
    "session_id": {
     "type":    "keyword",
     "doc_values": false
   }
  }
 }
}

通过设置 doc_values:false ,这个字段将不能被用于聚合、排序以及脚本操作

第9节 Filter过滤机制剖析(bitset机制与caching机制)

1. 在倒排索引中查找搜索串,获取document list
解析:
date举例:倒排索引列表,过滤date为2020-02-02(filter:2020-02-02)。
去倒排索引中查找,发现2020-02-02对应的document list是doc2、doc3。
在这里插入图片描述
2. Filter为每个在倒排索引中搜索到的结果,构建一个bitset,[0, 0, 0, 1, 0, 1](非常重要)
解析:
1. 使用找到的document list,构建一个bitset(二进制数组,用来表示一个document对应一个filter条件是否匹配;匹配为1,不匹配为0)。
2. 为什么使用bitset:尽可能用简单的数据结构去实现复杂的功能,可以节省内存空间、提升性能。
3. 由上步的document list可以得出该filter条件对应的bitset为:[0, 1, 1];代表着doc1不匹配filter,doc2、doc3匹配filter
3. 多个过滤条件时,遍历每个过滤条件对应的bitset,优先从最稀疏的开始搜索,查找满足所有条件的document
解析:

  1. 多个filter组合查询时,每个filter条件都会对应一个bitset。
  2. 稀疏、密集的判断是通过匹配的多少(即bitset中元素为1的个数)[0, 0, 0, 1, 0, 0] 比较稀疏、[0,
    1, 0, 1, 0, 1] 比较密集 。
  3. 先过滤稀疏的bitset,就可以先过滤掉尽可能多的数据。
  4. 遍历所有的bitset、找到匹配所有filter条件的doc。
    请求:filter,postDate=2017-01-01,userID=1;
    postDate:[0, 0, 1, 1, 0, 0]
    userID: [0, 1, 0, 1, 0, 1]
    遍历完两个bitset之后,找到的匹配所有条件的doc,就是doc4。
  5. 将得到的document作为结果返回给client。

4. caching bitset,跟踪query,在最近256个query中超过一定次数的过滤条件,缓存其bitset。对于小segment(<1000,或<3%),不缓存bitset
解析:

  1. 比如postDate=2020-01-01,[0, 0, 1, 1, 0, 0];可以缓存在内存中,这样下次如果再有该条件查询时,就不用重新扫描倒排索引,反复生成bitset,可以大幅提升性能。
  2. 在最近256个filter中,有某个filter超过一定次数,次数不固定,就会自动缓存该filter对应的bitset。
  3. filter针对小segment获取的结果,可以不缓存,segment记录数<1000,或者segment大小<index总大小的3%(segment数据量很小,此时哪怕是扫描也很快;segment会在后台自动合并,小segment很快就会跟其他小segment合并成大segment,此时缓存没有多大意义,因为segment很快就会消失)。
  4. filter比query的好处就在于有caching机制,filter bitset缓存起来便于下次不用扫描倒排索引。
    以后只要是由相同的filter条件的,会直接使用该过滤条件对应的cached bitset比如postDate=2020-01-01,[0, 0, 1, 1, 0, 0];可以缓存在内存中,这样下次如果再有该条件查询时,就不用重新扫描倒排索引,反复生成bitset,可以大幅提升性能。

5. 如果document有新增或修改,那么cached bitset会被自动更新
示例:postDate=2020-01-01,filter:[0, 0, 1, 0]
新增document,id=5,postDate=2020-01-01;会自动更新到postDate=2020-01-01这个filter的bitset中,缓存要会进行相应的更新。postDate=2020-01-01的bitset:[0, 0, 1, 0, 1]。修改document,id=1,postDate=2019-01-31,修改为postDate=2020-01-01,此时也会自动更新bitset:[1, 0, 1, 0, 1]。
6. filter大部分情况下,在query之前执行,先尽量过滤尽可能多的数据
query:要计算doc对搜索条件的relevance score,还会根据这个score排序。
filter:只是简单过滤出想要的数据,不计算relevance score,也不排序。

第10节 控制搜索精准度 - 基于boost的细粒度搜索的条件权重控制

boost,搜索条件权重。可以将某个搜索条件的权重加大,此时匹配这个搜索条件的document,在计算relevance score时,权重更大的搜索条件的document对应的relevance score会更高,当然也就会优先被返回回来。默认情况下,搜索条件的权重都是1。

DELETE  /article
POST /article/_bulk
{ "create": { "_id": "1"} }
{"title" : "elasticsearch" }
{ "create": { "_id": "2"} }
{"title" : "java"}
{ "create": { "_id": "3"} }
{"title" : "elasticsearch"}
{ "create": { "_id": "4"} }
{"title" : "hadoop"}
{ "create": { "_id": "5"} }
{"title" : "spark"}
GET /article/_search
{
 "query": {
  "bool": {
   "should": [
   {
     "term": {
      "title": {
       "value": "java"
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "spark"
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "hadoop"
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "elasticsearch"
     }
    }
   }
  ]
 }
}
}
搜索帖子,如果标题包含Hadoop或java或spark或Elasticsearch,就优先输出包含java的,再输出
spark的,再输出Hadoop的,最后输出Elasticsearch的。
GET /article/_search
{
 "query": {
  "bool": {
   "should": [
   {
     "term": {
      "title": {
       "value": "java",
       "boost": 5
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "spark",
       "boost": 4
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "hadoop",
       "boost": 3
     }
    }
   },
   {
     "term": {
      "title": {
       "value": "elasticsearch"
     }
    }
   }
  ]
 }
}
}

第11节 控制搜索精准度 - 基于dis_max实现best fields策略

1、为帖子数据增加content字段

POST /article/_bulk
{ "update": { "_id": "1"} }
{ "doc" : {"content" : "i like to write best elasticsearch article"} }
{ "update": { "_id": "2"} }
{ "doc" : {"content" : "i think java is the best programming language"} }
{ "update": { "_id": "3"} }
{ "doc" : {"content" : "i am only an elasticsearch beginner"} }
{ "update": { "_id": "4"} }
{ "doc" : {"content" : "elasticsearch and hadoop are all very good solution, i
am a beginner"} }
{ "update": { "_id": "5"} }
{ "doc" : {"content" : "spark is best big data solution based on scala ,an
programming language similar to java"} }

2、搜索title或content中包含java或solution的帖子
下面这个就是multi-field搜索,多字段搜索

GET /article/_search
{
  "query": {
    "bool": {
      "should": [
       { "match": { "title": "java solution" }},
       { "match": { "content":  "java solution" }}
     ]
   }
 }
}

在这里插入图片描述
3、结果分析
期望的是doc5排在了前面,结果是doc2排在了前面
算一下doc2的分数
{ “match”: { “title”: “java solution” }},针对doc2,是有一个分数的
{ “match”: { “content”: “java solution” }},针对doc2,也是有一个分数的
所以是两个分数加起来,比如说,1.0 + 1.3 = 2.3
算一下doc5的分数
{ “match”: { “title”: “java solution” }},针对doc5,是没有分数的
{ “match”: { “content”: “java solution” }},针对doc5,是有一个分数的
所以说,只有一个query是有分数的,比如1.4
4、best fields策略,dis_max
如果不是简单将每个字段的评分结果加在一起,而是将 最佳匹配 字段的评分作为查询的整体评分,结果会怎样?这样返回的结果可能是: 同时 包含 java 和 solution 的单个字段比反复出现相同词语的多个不同字段有更高的相关度。best fields策略,就是说,搜索到的结果,应该是某一个field中匹配到了尽可能多的关键词,被排在前面;而不是尽可能多的field匹配到了少数的关键词,排在了前面dis_max语法,直接取多个query中,分数最高的那一个query的分数即可
{ “match”: { “title”: “java solution” }},针对doc2,是有一个分数的,1.0
{ “match”: { “content”: “java solution” }},针对doc2,也是有一个分数的,1.3
取最大分数,1.3
{ “match”: { “title”: “java solution” }},针对doc5,是没有分数的
{ “match”: { “content”: “java solution” }},针对doc5,是有一个分数的,1.4
取最大分数,1.4
然后doc2的分数 = 1.3 < doc5的分数 = 1.4,所以doc5就可以排在更前面的地方,符合我们的需要

GET  /article/_search
{
  "query": {
    "dis_max": {
      "queries": [
       { "match": { "title": "java solution" }},
       { "match": { "content":  "java solution" }}
     ]
   }
 }
}

第12节 控制搜索精准度 - 基于function_score自定义相关度分数算法

Function score 查询
https://www.elastic.co/guide/en/elasticsearch/reference/7.3/query-dsl-function-score-query.html
#query-dsl-function-score-query
在使用ES进行全文搜索时,搜索结果默认会以文档的相关度进行排序,而这个 “文档的相关度”,是可以通过 function_score 自己定义的,也就是说我们可以通过使用function_score,来控制 “怎样的文档相关度得分更高” 这件事。
function_score 举例:

GET /book/_search
{
  "query": {
    "function_score": {
      "query": { "match_all": {} },
      "boost": "5",
      "random_score": {}
   }
 }
}

比如对 book 进行随机打分 如果没有给函数提供过滤,则等效于指定 “match_all”:{}要排除不符合特定分数阈值的文档,可以将min_score参数设置为所需分数阈值。为了使 min_score 正常工作,需要对查询返回的所有文档进行评分,然后逐一过滤掉。
function_score 查询提供了几种类型的得分函数。
script_score
weight
random_score
field_value_factor
decay functions: gauss, linear, exp
Field Value factor
field_value_factor 函数可以使用文档中的字段来影响得分。与使用 script_score 函数类似,但
是它避免了脚本编写的开销。如果用于多值字段,则在计算中仅使用该字段的第一个值。
举例:

GET /book/_search
{
  "query": {
    "match_all":{}
 }
}
GET /book/_search
{
  "query": {
    "function_score": {
      "field_value_factor": {
        "field": "price",
        "factor": 1.2,
        "modifier": "sqrt"
     }
   }
 }}

它将转化为以下得分公式
sqrt(1.2 * doc[‘price’].value)
field_value_factor函数有许多选项:
在这里插入图片描述
field_value_score函数产生的分数必须为非负数,否则将引发错误。如果在0到1之间的值上使用log和ln修饰符将产生负值。请确保使用范围过滤器限制该字段的值以避免这种情况,或者使用log1p 和 ln1p
Decay functions
衰减函数对文档进行评分,该函数的衰减取决于文档的数字字段值与用户给定原点的距离。这类似于范围查询,但具有平滑的边缘而不是框。
要在具有数字字段的查询上使用距离计分,用户必须为每个字段定义 origin 和 scale 。需要origin 来定义从中间计算距离的“中心点”,并需要 scale 来定义衰减率。衰减函数指定为

"DECAY_FUNCTION": {
  "FIELD_NAME": {
     "origin": "11, 12",
     "scale": "2km",
     "offset": "0km",
     "decay": 0.33
 }
}

DECAY_FUNCTION 必须是 linear , exp , or gauss 其中一个
指定的字段必须是数字,日期或地理点字段
在上面的例子中,该字段是 geo_point ,可以以地理格式提供起点。在这种情况下,必须使用 scale和 offset 。如果您的字段是日期字段,则可以将比例和偏移量设置为天,周等。如下:

GET /_search
{
  "query": {
    "function_score": {
      "gauss": {
        "date": {
           "origin": "2013-09-17",
           "scale": "10d",
           "offset": "5d",
           "decay" : 0.5
       }
     }
   }
 }
}

原点的日期格式取决于映射中定义的格式。如果未定义原点,则使用当前时间offset 和 decay 参数是可选的
在这里插入图片描述
在第一个示例中,您的文档可能代表酒店,并且包含地理位置字段。您要根据酒店距指定位置的距离来计算衰减函数。 您可能不会立即看到为高斯功能选择哪种比例,但是您可以说:“在距所需位置2公里的距离处,分数应降低到0.33。” 然后将自动调整参数“规模”,以确保得分功能为距离期望位置2公里的酒店计算出高于0.33的得分。
在这里插入图片描述
详细例子
假设您正在寻找某个城镇的酒店。您的预算有限。另外,您希望酒店离市中心很近,因此酒店距离理想位置越远,您入住的可能性就越小。
您希望根据距市中心的距离以及价格来对与您的条件相匹配的查询结果(例如“酒店,南希,不吸烟者”)进行评分。
直观地讲,您想将市中心定义为起点,也许您愿意从酒店步行2公里到市中心。在这种情况下,您的位置字段的来源为镇中心,范围为0〜2km。
如果您的预算低,您可能更喜欢便宜的东西而不是昂贵的东西。对于价格字段,原点为0欧元,小数位数取决于您愿意支付的金额,例如20欧元。
酒店的数据

DELETE  /hotel
PUT /hotel
{
 "mappings": {
   "properties": {
     "name": {
       "type": "text"
    },
     "price": {
       "type": "float"
    },
     "location": {
       "type": "geo_point"
    }
  }
}
}
PUT  /hotel/_doc/1
{
 "name":"Backback Nap",
 "price":18,
 "location":"0,0.0002"
}
PUT  /hotel/_doc/2
{
 "name":"Hilton",
 "price":180,
 "location":"0,0.0001"
}
PUT  /hotel/_doc/3
{
 "name": "Drink n Drive",
 "price":13,
 "location":"0,0.018"
}
PUT  /hotel/_doc/4
{
 "name":"BnB Bellevue",
 "price":10,
 "location":"0,0.0005"
}
PUT  /hotel/_doc/5
{
 "name":"Abu Dhabi",
 "price":1800,
 "location":"0,0.20"}

在此示例中,字段可能被称为“价格”作为酒店价格,而“位置”则称为该酒店的坐标。在这种情况下,价格字段定义为

"gauss": {
  "price": {
     "origin": "0",
     "scale": "20"
 }
}

此衰减函数也可以是 linear 或者 exp
位置定义为:

"gauss": {
  "location": {
     "origin": "0, 0",
     "scale": "2km"
 }
}

此衰减函数也可以是 linear 或者 exp
假设您要将这两个函数乘以原始分数,则请求将如下所示:

GET /hotel/_search
{
  "query": {
    "function_score": {
     "functions": [
     {
       "gauss": {
        "price": {
         "origin": "0",
         "scale": "20"
       }
      }
     },
     {
       "gauss": {
        "location": {
         "origin": "0, 0",
         "scale": "2km"
       }
      }
     }
    ],
     "query": {
      "match_all": {}
    },
     "score_mode": "multiply"
   }
 }
}

接下来,我们展示三个衰减函数中的每一个的计算分数如何。
正常衰减,gauss
在上面的示例中,选择 gauss 作为衰减函数时,乘数的轮廓和曲面图如下所示:
在这里插入图片描述
假设您的原始搜索结果匹配三家酒店:
“Backpack Nap”
“Drink n Drive”
“BnB Bellevue”
"Backback Nap"距离您定义的位置很近(近2公里),而且价格也不便宜(约13欧元),因此它的系数低至0.37。 "BnB Bellevue"和"Backback Nap"都非常接近定义的位置,但"BnB Bellevue"更便宜,因此它的乘数为0.84,而"Backback Nap"的值为0.57。
指数衰减,exp
在上面的示例中,选择exp作为衰减函数时,乘数的轮廓和曲面图如下所示:
在这里插入图片描述
线性衰减,linear
在上面的示例中,选择线性作为衰减函数时,乘数的轮廓和曲面图如下所示:
在这里插入图片描述
如果缺少字段怎么办?
如果文档中缺少数字字段,该函数将返回1。

PUT  /hotel/_doc/6
{
 "name":"lagou"
}

第13节 bulk操作的api json格式与底层性能优化的关系?

之前我们有讲过bulk的json格式很奇葩,不能换行,两行为一组(除删除外),如下:

{"action" : {"metadata"}}
{"data"}

举例:

POST /_bulk
{ "delete": { "_index": "book",  "_id": "1" }}
{ "create": { "_index": "book",  "_id": "5" }}
{ "name": "test14","price":100.99 }
{ "update": { "_index": "book",  "_id": "2"} }
{ "doc" : {"name" : "test"} }

而不是下面的形式:

[{
 "action": {
  {
   "metadata"
  }
},
 "data": {
}
}]

bulk中的每个操作都可能要转发到不同node的shard上执行
1、如果采用比较良好的json数组格式
首先,整个可读性非常棒,读起来很爽,ES拿到那种标准格式的JSON串以后,要按照下述流程去进行处理
(1)将JSON数组解析为JSONArray对象,这个时候,整个数据,就会在内存中出现一份一模一样的拷贝,一份数据是JSON文本,一份数据是JSONArray对象。
(2)解析JSON数组里的每个JSON,对每个请求中的document进行路由
(3)为路由到同一个shard上的多个请求,创建一个请求数组。
(4)将这个请求数组序列化
(5)将序列化后的请求数组发送到对应的节点上去
2、现在这种丑陋两行格式的JSON

{"action" : {"meta"}}
{"data"}
{"action" : {"meta"}}
{"data"}

(1)不用将其转换为JSON对象,不会出现内存中的相同数据的拷贝,直接按照换行符切割JSON
(2)对每两个一组的json,读取meta,进行document路由
(3)直接将对应的json发送到node上去
3、两种格式对比,为什么ES选择丑陋的格式?
(1)优雅格式:
耗费更多的内存,更多的JVM GC开销。我们之前提到过 bulk size最佳大小的问题,一般建议说在几千条那样,然后大小在10MB左右,所以说,可怕的事情来了,假设说现在100个bulk请求发送到了一个节点上去,然后每个请求是10MB,100个请求就是1000MB=1GB。然后每个请求的json都copy一份为JSONArray对象,此时内存中的占用就会翻倍,就会占用2GB内存,甚至还不止,因为弄成JSONArray后,还可能会多搞一些其他的数据结构,2GB+的内存占用。占用更多的内存可能就会积压其他请求的内存使用量,比如说最重要的搜索请求,分析请求,等等,此时就可能会导致其他请求的性能急速下降另外的话,占用内存更多,就会导致ES的java虚拟机的垃圾回收次数更多,更频繁,每次要回收的垃圾对象更多,耗费的时间更多,导致ES的java虚拟机停止工作线程的时间更多。
(2)丑陋的JSON格式:
最大的优势在于,不需要将JSON数组解析为一个JSONArray对象,形成一份大数据的拷贝,浪费内存空间,尽可能的保证性能。

第14节 deep paging性能问题 和 解决方案

1.深度分页问题
ES 默认采用的分页方式是 from+ size 的形式,类似于mysql的分页limit。当请求数据量比较大时,Elasticsearch会对分页做出限制,因为此时性能消耗会很大。举个例子,一个索引 分10个 shards,然后,一个搜索请求,from=990,size=10,这时候,会带来严重的性能问题:
CPU
内存
IO
网络带宽
在这里插入图片描述
CPU、内存和IO消耗容易理解,网络带宽问题稍难理解一点。在 query 阶段,每个shard需要返回1000条数据给 coordinating node,而 coordinating node 需要接收 10*1000 条数据,即使每条数据只有 _doc _id 和 _score,这数据量也很大了,而且,这才一个查询请求,那如果再乘以100呢?
es中有个设置 index.max_result_window ,默认是10000条数据,如果分页的数据超过第1万条,就拒绝返回结果了。如果你觉得自己的集群还算可以,可以适当的放大这个参数,比如100万。
我们意识到,有时这种深度分页的请求并不合理,因为我们是很少人为的看很后面的请求的,在很多的业务场景中,都直接限制分页,比如只能看前100页。
不过,这种深度分页确实存在,比如有1千万粉丝的微信大V,要给所有粉丝群发消息,或者给某省粉丝群发,这时候就需要取得所有符合条件的粉丝,而最容易想到的就是利用 from + size 来实现,但这是不现实的,我们需要使用下面的解决方案。
2.深度分页解决方案
1.利用 scroll 遍历方式
scroll 分为初始化和遍历两步,初始化时将所有符合搜索条件的搜索结果缓存起来,可以想象成快照,在遍历时,从这个快照里取数据,也就是说,在初始化后对索引插入、删除、更新数据都不会影响遍历结果。因此,scroll 并不适合用来做实时搜索,而更适用于后台批处理任务,比如群发。
1)初始化

POST /book/_search?scroll=1m&size=2
{
  "query": { "match_all": {}}
}

初始化时需要像普通 search 一样,指明 index 和 type (当然,search 是可以不指明 index 和 type的),然后,加上参数 scroll,表示暂存搜索结果的时间,其它就像一个普通的search请求一样。初始化返回一个 scroll_id,scroll_id 用来下次取数据用。
2) 遍历

GET /_search/scroll 
{
  "scroll": "1m",
  "scroll_id" : "步骤1中查询出来的值"
}

这里的 scroll_id 即 上一次遍历取回的 _scroll_id 或者是初始化返回的 _scroll_id,同样的,需要带scroll 参数。 重复这一步骤,直到返回的数据为空,即遍历完成。注意,每次都要传参数 scroll,刷新搜索结果的缓存时间。另外,不需要指定 index 和 type。设置scroll的时候,需要使搜索结果缓存到下一次遍历完成,同时,也不能太长,毕竟空间有限。
2.search after方式
满足实时获取下一页的文档信息,search_after 分页的方式是根据上一页的最后一条数据来确定下一页的位置,同时在分页请求的过程中,如果有索引数据的增删改,这些变更也会实时的反映到游标上,这种方式是在es-5.X之后才提供的。为了找到每一页最后一条数据,每个文档的排序字段必须有一个全局唯一值 使用 _id 就可以了。

GET /book/_search
{
 "query":{
  "match_all": {}
},
 "size":2,
 "sort":[
 {
   "_id": "desc"
 }
]
}
GET /book/_search
{
 "query":{
  "match_all": {}
},
 "size":2,
 "search_after":[3],
 "sort":[
 {
   "_id": "desc"
 }
]
}

下一页的数据依赖上一页的最后一条的信息 所以不能跳页。
3. 三种分页方式比较
在这里插入图片描述

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐