跨集群搜索(cross-cluster search)使你可以针对一个或多个远程集群运行单个搜索请求。 例如,你可以使用跨集群搜索来筛选和分析存储在不同数据中心的集群中的日志数据。

一个实际的例子就是:

我们可以在一个集群里访问多个云厂商所提供的集群,并对跨数据的数据进行搜索。 当然很多人可能要问,每个集群都是有安全设置的,如何保证各个集群之间的互信呢?如果你想了解这个方面的知识,你可以阅读我的另外一篇文章 “Elasticsearch:如何为 CCR 及 CCS 建立带有安全的集群之间的互信”。

如上面所述,当我们的 client 向集群 cluster_1 发送请求时,它可以搜索自己本身的集群,同时也可以向另外的两个集群 cluster_2 及 cluster_3 发送请求。最后的结果由 cluster_1 返回给客户端。

在没有出现 CCS 之前,我们想要对 multi-data 进行搜索,我们可能如下的两种方案:

完整复制

 我们通过这种方法把各个渠道里的数据收集起来,并完全复制到所有的 Elasticsearch 集群。这样在每个集群上,它都可以搜索到所有的数据。这会在某种程度上造成存储的浪费。它不利于扩展系统。

集中数据采集

这种方案我们称之为集中数据收集(centralized data collection)。我们通过 Message Queue 的运用把所有的数据收集到一个 Message Queue 中,并最终发送到同一个 Elasticsearch 集群。在 Elasticsearch 中, 它存储了所有的数据在一个大的集群中。这种架构的缺点是 speed 会受一定的影响。

CCS 的方案是:

每个采集渠道采集的数据可以位于不同的 Elasticsearch 中。从上面的结构中,它比较简单,直接。我们可以通过 CCS 的运用,可以同时针对几个集群进行搜索,并在搜索集群中得到最终的结果。

目前支持的 APIs:

跨集群搜索例子

注册 remote cluster

要执行跨集群搜索,必须至少配置一个远程集群。在群集设置中配置了远程群集

  • 使用 cluster.remote 属性
  • 种子(seeds)是远程集群中的节点列表,用于在注册远程集群时检索集群状态

以下 cluster update settings API请求添加了三个远程集群:cluster_one,cluster_two 和 cluster_three。

PUT _cluster/settings
{
  "persistent": {
    "cluster": {
      "remote": {
        "cluster_one": {
          "seeds": [
            "127.0.0.1:9300"
          ]
        },
        "cluster_two": {
          "seeds": [
            "127.0.0.1:9301"
          ]
        },
        "cluster_three": {
          "seeds": [
            "127.0.0.1:9302"
          ]
        }
      }
    }
  }
}

动手实践

安装集群

在今天的实践中,我们来设置两个集群:

在上面的描述中,我们配置了两个集群:cluster 1及cluster 2。它们位于同一个网络内,可以互相访问。如果你还没有安装好你的 Elasticsearch 集群的话,请参阅我之前的文章 “Elastic:菜鸟上手指南” 安装好自己的 Elasticsearch 及 Kibana。在安装时,我们必须注意的是:

  • 把我们的 Elasticsearch 及 Kibana 分别解压,并安装于不同的两个目录中。这样它们的安装互相不干扰,从而能形成两个不同的集群,虽然它们集群的名字可以是一样的。为了方便,我们把两个集群的名字分别取为 cluster_1 及 cluster_2。
  • 我们可以分别对 Elasticsearch 的配置文件 config/elasticsearch.yml 做如上的配置。同时我们也需要对 Kibana 之中的 config/kibana.yml 做配置,这样使得 cluster_1 对应的 Kibana 的口地址为 5601,而对于 cluster_2 的 Kibana 的口地址为5602。

在上面可能有很多人感到疑问:为啥我们还需要配置端口地址 9300 及 9301?事实上,Elasticsearch 中有两种重要的网络通信机制需要了解:

  • HTTP:用于 HTTP 通信绑定的地址和端口,这是 Elasticsearch REST API 公开的方式
  • transport:用于集群内节点之间的内部通信

 等我们安装好我们的两个集群我们可以通过如下的方法来查看:

cluster_1

cluster_2

如果我们能够同时看到上面的两个集群的画面,则表明我们的集群已经设置正确。

搜索

我们接下来进行配置。我们在 kibana_2,也既是端口地址为 5602 的 Kibana。我们打入如下的命令:

PUT _cluster/settings
{
  "persistent": {
    "cluster.remote": {
      "remote_cluster": {
        "seeds": [
          "127.0.0.1:9300"
        ]
      }
    }
  }
}

在上面,我们在 cluster_2 里配置可以连接到 cluster_1 的这样设置。因为 cluster_1 的 transport 口地址是 9300。

我们可以看到如下的返回信息:

我们接下来使用如下的命令来检查我们的连接状态:

GET _remote/info

我们可以看到如下的响应信息:

{
  "remote_cluster" : {
    "seeds" : [
      "127.0.0.1:9300"
    ],
    "connected" : true,
    "num_nodes_connected" : 1,
    "max_connections_per_cluster" : 3,
    "initial_connect_timeout" : "30s",
    "skip_unavailable" : false
  }
}

它表明我们的连接是成功的。

这个时候我们在 Kibana_1 中创建如下的 twitter 索引:

POST _bulk
{"index":{"_index":"twitter","_id":1}}
{"user":"张三","message":"今儿天气不错啊,出去转转去","uid":2,"age":20,"city":"北京","province":"北京","country":"中国","address":"中国北京市海淀区","location":{"lat":"39.970718","lon":"116.325747"}, "DOB": "1999-04-01"}
{"index":{"_index":"twitter","_id":2}}
{"user":"老刘","message":"出发,下一站云南!","uid":3,"age":22,"city":"北京","province":"北京","country":"中国","address":"中国北京市东城区台基厂三条3号","location":{"lat":"39.904313","lon":"116.412754"}, "DOB": "1997-04-01"}
{"index":{"_index":"twitter","_id":3}}
{"user":"李四","message":"happy birthday!","uid":4,"age":25,"city":"北京","province":"北京","country":"中国","address":"中国北京市东城区","location":{"lat":"39.893801","lon":"116.408986"}, "DOB": "1994-04-01"}
{"index":{"_index":"twitter","_id":4}}
{"user":"老贾","message":"123,gogogo","uid":5,"age":30,"city":"北京","province":"北京","country":"中国","address":"中国北京市朝阳区建国门","location":{"lat":"39.718256","lon":"116.367910"}, "DOB": "1989-04-01"}
{"index":{"_index":"twitter","_id":5}}
{"user":"老王","message":"Happy BirthDay My Friend!","uid":6,"age":26,"city":"北京","province":"北京","country":"中国","address":"中国北京市朝阳区国贸","location":{"lat":"39.918256","lon":"116.467910"}, "DOB": "1993-04-01"}
{"index":{"_index":"twitter","_id":6}}
{"user":"老吴","message":"好友来了都今天我生日,好友来了,什么 birthday happy 就成!","uid":7,"age":28,"city":"上海","province":"上海","country":"中国","address":"中国上海市闵行区","location":{"lat":"31.175927","lon":"121.383328"}, "DOB": "1991-04-01"}

我们可以在 Kibana_1 中通过如下的命令来检查 twitter 索引是否已经被成功创建:

在上面,我们可以看到我们已经成功地在 cluster_1 上创建了 twitter 索引,那么我们怎么在 cluster_2 上对这个进行搜索呢?

我们在 Kibana_2 里,打入如下的命令:

GET remote_cluster:twitter/_search

我们将看到如下的输出:

从上面我们可以看出来,我们可以对位于 cluster_1 的 twitter 索引进行搜索。

如果你配置了多个 remote 索引,你可以使用如下的方法来进行搜索:

GET *:twitter/_search

在这里,我们使用 *:twitter 来表示所有 remote cluster里含有 twitter 的集群。

对 remote 索引进行分析

cluster_1

在 Kibana_1 中,我们通过如下的方法来加载我们的测试数据:

然后点击 “Add data”:

这样在 cluster_1 中,我们已经成功地加载了 Sample flight data 索引。

cluster_2

我们打开 Kibana_2,并创建一个为 cluster_1 中的 Sample flight data 的 index pattern

点击 “Create index pattern”:

输入我们想要的索引。注意在前面加上 remote_cluster:

在上面,如果我们有本地和远程相同类型的索引(比如,我们针对不同地区的服务器来收集数据),我们可以使用逗号“,”把所有的索引放在一起做成一个 index pattern,比如就像:remote_cluster:kibana_sample_data_flights, my_local_index。

点击 “Create index pattern”:

这样,我们就创建了位于 cluster_1 里的索引的一个 index pattern。我们点击右上角的星号,并使之成为我们的默认的 index。

我们点击 Kibana_2 左上角的 Discover:

因为我们的默认的 index 是 remote_cluster:kibana_sample_data_flights,所以我们的 Discover 默认的情况先显示的是所有关于位于 cluster_1 上的 kibana_sample_data_flights 索引数据。我们可可以在 cluster_2 对这些数据进行分析。

参考:

【1】Search across clusters | Elasticsearch Guide [8.3] | Elastic

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐