Elasticsearch内部提供了一个rest接口用于查看集群内部的健康状况:
1 | curl -XGET http://localhost:9200/_cluster/health |
response结果:
1 | { |
这里的status有3种状态,分别是green(所有主分片和复制分片都可用),yellow(所有主分片可用,但不是所有复制分片都可用)和red(不是所有主分片可用)。
分片(Shard)
Elasticsearch中的索引(index)是由分片(shard)构成的。
比如我们集群中有个索引users,该索引由3个分片组成,那么这个users索引中的文档数据将分布在这3个分片中。
users索引中的文档是根据下面这个规则确定该文档属于哪个分片:
1 | shard = hash(routing) % number_of_primary_shards // routing值默认是文档的_id,number_of_primary_shards是索引的主分片个数 |
这个routing默认是文档的_id,可以自定义(文章后面部分会举例说明)。
这3个分片可以进行复制,复制是为了实现容错性,比如复制1份,那么一共就需要6个分片(3个主分片+3个主分片复制出来的复制分片)。
users索引的创建命令(主分片3个,复制1份):
1 | curl -XPUT http://localhost:9200/users -d ' |
创建完users索引之后,es集群(单节点)分片情况如下:
由于users索引有3个分片,es内部会创建出3个分片,分别是P0、P1和P2(大写P指的是primary),且这3个分片都是主分片。users索引需要对分片进行复制1份,所以这3个主分片都需要复制1份,分别对应R0、R1和R2这3个复制分片(大写R指的是replica)。这个时候我们的集群只有1个节点node-1,所以复制分片并没有起作用(如果复制分片和主分片在同一个节点了,那么这个复制分片的意义就不存在了。复制分片的意义在于容错性,当一个节点挂了,另一个节点上的分片可以代替挂掉节点上的分片)。
查看健康状态:
1 | curl -XGET http://localhost:9200/_cluster/health |
response结果:
1 | { |
这里可以看到,集群的状态变成了yellow。这是因为users索引中的分片需要复制1份,但是没有足够的机器用来存储复制出来的复制分片,还有其它的一些字段比如unassigned_shards字段为3,对应R0、R1和R2这3个未分配的复制分片。
在集群中加入节点node-2,查看健康状况(这里使用伪集群。node-1节点对应9200端口的进程,node-2节点对应9201端口的进程):
1 | curl -XGET http://localhost:9200/_cluster/health |
response结果:
1 | { |
主分片和复制分片均可用,status为green。
此时,es集群分片情况如下:
这个时候es集群由2个节点node-1和node-2组成,并且这2个节点上具有主分片和复制分片,具有容错性。
我们往users索引中插入一条文档:
1 | curl -XPOST http://localhost:9200/users/normal -d ' |
返回:
1 | { |
从返回的信息中可以看到,这个文档已经被创建成功,并且2个分片都成功。id由es内部自动创建,值为AV0hs4LnkXxVJ5DURwXr。
读取id为AV0hs4LnkXxVJ5DURwXr的文档:
1 | curl -XGET http://localhost:9200/users/normal/AV0hs4LnkXxVJ5DURwXr |
这个时候如果节点node-1挂了,读取数据:
1 | curl -XGET http://localhost:9201/users/normal/AV0hs4LnkXxVJ5DURwXr |
在节点node-1已经挂了的情况下还是读取到了之前插入的文档。这是因为我们users索引会复制2份,node-1节点虽然已经挂了,但是node-2节点上这个文档的数据还在,所以文档会被读取到。
在node-1节点挂掉的情况下,再次插入一条文档:
1 | curl -XPOST http://localhost:9201/users/normal -d ' |
返回:
1 | { |
这里看到返回的数据中,这个文档对应的分片只有1个成功插入,因为另1个分片对应的节点已经挂了。
然后读取这个新插入的文档:
1 | curl -XGET http://localhost:9201/users/normal/AV0qMto5dJHprgu99sSN |
然后node-1节点恢复(节点恢复之后,es内部会自动从数据全的分片中复制数据到数据少的分片上,保证高可用),然后读取数据:
1 | curl -XGET http://localhost:9200/users/normal/AV0qMto5dJHprgu99sSN |
ES中文档的新建、删除和修改都是先在主分片上完成的,在主分片上完成这些操作以后,才会进行复制操作。比如有3个节点node-1、node-2和node-3,索引blogs有2个主分片,并且复制2份,集群结构如下:
当进行新建文档的时候过程如下:
- 客户端给master节点node-1发送新建文档的请求
- node-1节点根据文档的_id,确定该文档属于属于分片1。分片1的主分片在节点node-2上,故将请求转发到node-2
- node-2上的主分片P1处理文档成功,然后转发请求到node-1和node-3节点上的复制节点上。当所有的复制节点报告成功后,node-2节点报告成功到请求的节点,请求节点再返回给客户端
当进行检索文档的时候过程如下:
- 客户端给master节点node-1发送检索文档的请求
- node-1节点根据文档的_id,确定该文档属于分片0。分片0在3个节点中都存在,本次请求中使用节点node-2,于是将请求转发给node-2节点
- node-2节点得到文档数据,并返回给node-1节点,node-1节点返回给客户端
这里es集群会使用轮询的策略对读取不同节点上的分片中的文档数据,比如针对上图中的查询,下次查询就会读取node-3节点上的R0分片中的文档。
当对文档进行局部更新的时候过程如下:
- 客户端给master节点node-1发送局部更新文档的请求
- node-1节点根据文档的_id,确定该文档属于分片1,并发现找到分片1的主分片在node-2节点上,转发请求到node-2节点上
- node-2节点在主分片P1中找出对应id的文档,修改文档内部的_source属性,之后对文档重建索引。如果这个文档已经被其它进程修改,会重试步骤3 retry_on_conflict 次数(retry_on_conflict可通过参数设置)
- 如果步骤3执行成功,node-2节点转发新版本的文档给node-1和node-3节点上的复制分片,这2个节点对文档进行重建索引。一旦node-1和node-3节点上的复制分片处理成功,node-2节点返回成功给node-1节点,node-1节点返回给客户端
节点(Node)
在分布式集群情况下,ES中的节点可分为4类:
- master节点:配置文件中node.master属性为true(默认为true),就有资格被选为master节点,master节点用于控制整个集群的操作。比如创建或删除索引,管理其它非master节点等
- data节点:配置文件中node.data属性为true(默认为true),就有资格被设置成data节点,data节点主要用于执行数据相关的操作。比如文档的CRUD
- 客户端节点:配置文件中node.master属性和node.data属性均为false。该节点不能作为master节点,也不能作为data节点。可以作为客户端节点,用于响应用户的请求,把请求转发到其他节点
- 部落节点:当一个节点配置tribe.*的时候,它是一个特殊的客户端,它可以连接多个集群,在所有连接的集群上执行搜索和其他操作
查询集群状态的Rest接口
可以通过es内部提供的rest接口查看master节点:
1 | curl -XGET http://localhost:9200/_cat/master?v |
查看节点信息:
1 | curl -XGET http://localhost:9200/_cat/nodes?v |
或者使用head插件查看节点情况。图中带有五角星的节点是master,这里users索引有3个主分片和3个复制分片(绿色框外部加粗的边框就是主分片,否则就是复制分片):
如果我们的集群上node-1节点由于硬盘容量不足导致不可用时,head插件情况如下(3个复制节点未被分配,健康状况为黄色):
也可使用es内部的rest接口查看分片信息:
1 | curl -XGET http://localhost:9200/_cat/shards?v |
routing参数决定如何分片(可以在index、get、delete、update、bulk等方法中使用),我们覆盖默认的routing为_id的默认策略:
1 | # 执行10次 |
官网上有更多关于_cat api和_cluster api相关的文档。
文档操作
es中文档的操作可以使用其内部提供的rest接口,使用过程中可以指定一些参数修改默认行为。
1.replication:用于设置复制分片的处理过程是同步还是异步。默认值是sync(主分片需要等待复制分片全部处理完毕),也可以设置成async(主分片不需要等待复制分片的处理过程,但是还是会转发请求给复制分片,这个转发过程是异步的)。该参数在2.0.0版本后已经被废弃,因为异步转发给复制分片的话,不知道复制分片是否成功与否,而且复制分片在还没有处理完成的情况下由于一直过来的异步请求而导致es过载,不建议使用async
2.consistency:写文档的一致性参数,可以设置成one,quorum和all;分别表示主分片可用即可、过半分片可用[公式:int( (primary + number_of_replicas) / 2 ) + 1]以及全部分片可用。比如有个blogs索引,有3个主分片,并且复制2份,当集群中的1个节点挂了,并使用all的话,将会抛出异常:
1 | curl -XPOST http://localhost:9200/blogs/normal?consistency=all -d ' |
使用默认的quorum策略:
1 | curl -XPOST http://localhost:9200/blogs/normal -d ' |
consistency参数在5.0.0版本已经被弃用
3.timeout:当分片不足的时候,es等待的时间(等待节点重新启动,分片恢复),默认为1分钟,可以进行修改,改成10秒:
1 | curl -XPOST http://localhost:9200/blogs/normal?consistency=all&timeout=10s -d ' |
4.version
es中每个文档都有对应的版本信息,可以使用version版本参数用来实现并发情况下的乐观锁机制:
1 |
|
5.op_type:可以指定本次操作的类型,比如create操作。
1 | # 创建一个id为1,type为normal,在blogs索引中的文档 |
可以不使用op_type操作,在url中指定。这两种方法效果是一样的
http://localhost:9200/blogs/normal/1/_create 效果跟 http://localhost:9200/blogs/normal/1?op_type=create 是一样的。
目前支持的op_type有create(只支持创建文档)和index(支持创建和更新文档)。
6.wait_for_active_shards
在5.0.0版本新引入的一个参数,表示等待活跃的分片数。作用跟consistency类似,可以设置成all或者任意正整数。
比如在这种场景下:集群中有3个节点node-1、node-2和node-3,并且索引中的分片需要复制3份。那么该索引一共拥有4个分片,包括1个主分片和3个复制分片。
默认情况下,索引操作只需要等待主分片可用(wait_for_active_shards为1)即可。
如果node-2和node-3节点挂了,索引操作是不会受影响的(wait_for_active_shards默认为1);如果设置了wait_for_active_shards为3,那么需要3个节点全部存活;如果设置了wait_for_active_shards为4或者all(一共4个分片,4和all是一样的效果),那么该集群中的索引操作永远都会失败,因为集群一共就3个节点,不能处理所有的4个分片。
比如设置成all,则会抛出如下错误:
1 | { |
wait_for_active_shards的默认值可以在定义索引的时候进行设置,也可以动态地进行修改:
1 | curl -XPUT http://localhost:9200/blogs/_settings -d ' |
7.自动生成id
创建文档的时候,可以不指定id,es会自动为你生成1个id,需要注意的话需要使用POST方式,而不是PUT方式。
1 |
|
8.文档的局部更新
1 | # 新建文档 |
9.检索多个文档(Multi Get API)
可以在一个请求中获得多个文档数据。
1 | # 在所有索引中执行mget,在参数中指定索引 |
10.批量操作(bulk)
批量操作可以实现同一个请求操作多个文档的过程。需要注意的是bulk操作Http Body中的格式,对文档进行处理的话需要使用换行。比如创建新文档,更新文档都需要使用换行把创建目录和文档数据进行分割。不同的操作也需要用换行进行分割,比如创建文档和删除文档。
1 | # 3个批量操作,分别是创建文档,更新文档以及删除文档 |