测试分词器

2019-12-12  本文已影响0人  zz云飞扬

1、测试es插件里的分词器

POST _analyze

{

  "analyzer": "whitespace",

  "text":    "The quick brown fox."

}

POST _analyze

{

  "tokenizer": "standard",

  "filter":  [ "lowercase", "asciifolding" ],

  "text":      "Is this déja vu?"

}

2、测试具体索引的分词器,这个索引可以是settings中自定义索引(见kibana建立索引那篇文章)

POST test_index333/_analyze

{

  "analyzer": "pinyin_analyzer",

  "text":"zhongguolianxiangjituan"

}

上一篇下一篇

猜你喜欢

热点阅读