天天看點

Elasticsearch 如何實作查詢/聚合不區分大小寫?

2、問題拆解

2.1 拆解一:如果預設分詞方式,能區分大小寫的嗎?

是的,預設分詞器是Standard 标準分詞器,是不區分大小寫的。

官方文檔原理部分:

如下的兩張圖很直覺的說明了:标準分詞器的 Token filters 核心組成是:Lower Case Token Filter。

Elasticsearch 如何實作查詢/聚合不區分大小寫?
Elasticsearch 如何實作查詢/聚合不區分大小寫?

什麼意思呢?大寫的英文字元會轉換成小寫。

2.2 拆解二:實踐 Demo 驗證

DELETE test_003

PUT test_003

{

 "mappings": {

   "properties": {

     "title":{

       "type":"text",

       "analyzer": "standard"

     },

     "keyword":{

       "type":"keyword"

     }

   }

 }

}

POST test_003/_bulk

{"index":{"_id":1}}

{ "city": "New York"}

{"index":{"_id":2}}

{ "city": "new York"}

{"index":{"_id":3}}

{ "city": "New york"}

{"index":{"_id":4}}

{ "city": "NEW YORK"}

{"index":{"_id":5}}

{ "city": "Seattle"}

POST test_003/_analyze

 "text": "New york",

 "analyzer": "standard"

POST test_003/_search

 "query": {

   "match_phrase":{

     "city":"new york"

match_phrase 檢索傳回結果非常明确:_id = 1,2,3,4  的資料都被召回。

這裡初步結論是:standard 标準預設分詞器可以實作區分大小寫。

但是,我們再看一下聚合呢?

GET test_003/_search

 "size": 0,

 "aggs": {

   "cities": {

     "terms": {

       "field": "city.keyword"

傳回結果如下:

"aggregations" : {

   "cities" : {

     "doc_count_error_upper_bound" : 0,

     "sum_other_doc_count" : 0,

     "buckets" : [

       {

         "key" : "NEW YORK",

         "doc_count" : 1

       },

         "key" : "New York",

         "key" : "New york",

         "key" : "Seattle",

         "key" : "new York",

       }

     ]

這裡最核心的是:

Mapping 設定是:multi-fields。

聚合走的是 keyword 類型了,不涉及分詞器:standard 了。

既然提到了 keyword, 我們進一步看:

   "term":{

     "city.keyword":"new york"

執行精準比對後,召回結果為空。

怎麼解釋呢?keyword 類型屬于精準比對,也就是說:單純的keyword 類型沒法實作大小寫區分。

進一步小結:

我們上面的組合multi-field 方式,并沒有解決檢索和聚合區分大小寫的問題?

multi-field 都搞不定,那還有招嗎?别急,我們慢慢來......

這時候得思考:需要在 Mapping 階段做文章了。

核心原理:把所有都轉為小寫,寫入時候設定 Mapping——設定filter過濾:小寫過濾。

這個是一個我們過往文章沒有提及的知識點 normalizer,希望你把它看完并掌握。

3、解決方案

先給出實作,後面講原理。

PUT caseinsensitive

 "settings": {

   "analysis": {

     "normalizer": {

       "lowercase_normalizer": {

         "type": "custom",

         "char_filter": [],

         "filter": [

           "lowercase"

         ]

 },

     "city": {

       "type": "keyword",

       "normalizer": "lowercase_normalizer"

POST caseinsensitive/_bulk

GET caseinsensitive/_search

   "bool": {

     "filter": {

       "term": {

         "city": "NEW YORK"

此時的檢索傳回結果是:_id = 1,2,3,4 文檔都被召回。

注意,我們使用了 terms 檢索。

       "field": "city"

傳回結果是:

         "key" : "new york",

         "doc_count" : 4

         "key" : "seattle",

以上 new york 4種不同大小寫的全都聚合到了一起,這是我們期望的結果。

4、解決方案的原了解讀

核心的核心是我們使用了:normalizer。

這個概念咱們之前分詞的文章都沒有提及,這裡要普及一下。

官方解讀如下:

The normalizer property of keyword fields is similar to analyzer except that it guarantees that the analysis chain produces a single token.

The normalizer is applied prior to indexing the keyword, as well as at search-time when the keyword field is searched via a query parser such as the match query or via a term-level query such as the term query.

核心點如下:

第一:normalizer是 keyword的一個屬性,類似 analyzer分詞器的功能,不同的地方在于:可以對 keyword生成的單一 Term再做進一步的處理。

第二:normalizer 在 keyword 類型資料索引化之前被使用,同時在 match 或者 term 類型檢索階段也能被使用。

剛才提及的進一步處理,反映到我們的解決方案上:就是可以做小寫 lowercase 轉換。

由于寫入階段和檢索階段:normalizer 都生效,是以就實作了我們想要的不區分大小寫的結果。

5、小結

如果官方文檔熟悉,我們的示例,實際就是官方文檔:normalizer 的舉例。

中間的 filter 我們設定了小寫,當然也可以有其他的設定,需要結合業務場景靈活使用。

歡迎大家留言說一下類似問題的其他不同實作方案。

和你一起,死磕 Elasticsearch!

繼續閱讀