admin 管理员组

文章数量: 887021

一、docker安装es

1、下载镜像

docker pull elasticsearch:7.9.0

下载完后,查看镜像

docker images

​​

2、启动镜像

docker network create esnet
docker run  -d  --name es  -p 9200:9200 -p 9300:9300  --network esnet -e "discovery.type=single-node" e71b9e9d21b6

查看日志

docker logs e71b9e9d21b6

3、访问9200端口。


看到这个页面代表es安装成功,es安装完毕

4、在docker可视化工具中查看镜像日志和进程信息。

5、安装IK分词器。

1、从github下载安装。
注意版本要与ES版本一致。

进入容器。

docker exec -it adaaf2ddfa7b bash

安装对应版本的ik分词器。

[root@adaaf2ddfa7b bin]# ./elasticsearch-plugin install https://github/medcl/elasticsearch-analysis-ik/releases/download/v7.9.0/elasticsearch-analysis-ik-7.9.0.zip

重启es镜像即可。

 docker restart adaaf2ddfa7b

在kibana中测试一下IK分词器。

POST _analyze
{
  "analyzer": "ik_max_word",
  "text": ["张三丰","数据库","手机壳"]
}

POST _analyze
{
  "analyzer": "standard",
  "text": ["张三丰","数据库","手机壳"]
}


POST _analyze
{
  "analyzer": "keyword",
  "text": ["张三丰","数据库","手机壳"]
}

ik_max_word智能分词效果

standard效果 会拆分成一个个字

keyword效果

二、mac中安装Kibana

1、下载跟es版本一样的kibana。

官方地址:https://www.elastic.co/cn/downloads/past-releases/kibana-7-9-0

如其他的版本,只需更改链接中的数值。


下载完后解压文件。

2、修改配置文件,添加es的地址。

配置文件路径在config下,kibana.xml。

添加以下配置:

3、运行bin目录下的kibana即可。

bin/kibana

4、访问kibana。

localhost:5601,出现以下页面代表安装成功。

看到这个页面基本上就是安装成功啦!不得不吐槽,界面越来越丑了,哈哈。

5、测试一下。

可以在dev tools里调用es啦。

直接发送PUT请求,创建一个索引并插入一个文档,测试成功。

三、es学习笔记。

1、概述。

ES使用java语言并基于lucene编写的搜索引擎框架,提供了分布式的全文搜索功能,提供了基于restful风格的web接口,只需要发送一个web请求,根据请求方式不同,携带不同的参数执行。

Lucene本身就是一个搜索框架的底层。ES主要是突出他的横向扩展能力,分布式的。
1、Slor在查询死数据的时候更快一些,但是如果数据是实时变化的是咯人效率下降,ES没有影响。
2、solr搭建 集群需要 zookeeper,而es本身就支持集群的搭建 不需要第三方的额外介入。
3、slor社区、文档丰富,出现的早,ES较少。
4、ES对云计算和大数据支持的更好。

ES的数据结构
一个 Elasticsearch 集群可以包含多个索引 ,相应的每个索引可以包含多个类型 。 这些不同的类型存储着多个文档 ,每个文档又有多个属性 。
ES会对数据进行分片,1亿条数据,比如分成两个分片,各5000万条数据。
如前所述,一个索引 类似于传统关系数据库中的一个数据库 ,是一个存储关系型文档的地方。
索引 (index) 的复数词为 indices 或 indexes 。
索引(动词):
索引一个文档 就是存储一个文档到一个 索引 (名词)中以便被检索和查询。这非常类似于 SQL 语句中的 INSERT 关键词,除了文档已存在时,新文档会替换旧文档情况之外。
倒排索引

将一段词语进行分词,并且将分出的词语统一放到一个分词库中,在搜索时根据关键字去分词库中检索,找到匹配的内容。

关系型数据库通过增加一个索引比如一个 B树(B-tree)索引 到指定的列上,以便提升数据检索速度。Elasticsearch 和 Lucene 使用了一个叫做倒排索引的结构来达到相同的目的。
默认的,一个文档中的每一个属性都是 被索引 的(有一个倒排索引)和可搜索的。一个没有倒排索引的属性是不能被搜索到的。
一个类型下可以有多个文档,相当于db中多行数据;一个列多个属性,相当于db中表中行的列字段。
可以理解成如下的对应关系:

  • 数据库-----索引
  • 数据表-----类型
  • 一条记录-----一个文档
  • 字段------属性

在ES中可以创建多个索引,每个索引默认被分成5片存储。每个分片都会存在至少一个备份分片,备份分片默认不会帮助检索数据,当Es检索压力过大时,备份分片才会帮忙检索数据,备份的分片必须放在不同的服务器中。

一个索引下可以有多个类型 版本:

  • ES5.X 一个索引对应多个类型
  • ES6.X 一个索引对应1个类型
  • ES7.X 索引下没有类型 类型被移除了

2、操作ES的restful语法

GET

  • http://ip:port/index 查询索引信息
  • http://ip:port/index/type/doc_id 查询指定的文档信息

POST

  • http://ip:port/index/type/_search 查询文档,可以在请求体中添加json字符串来代表查询条件
  • http://ip:port/index/type/doc_id/_update 修改文档,在请求体中添加json字符串来代表修改的信息

PUT

  • http://ip:port/index 创建一个索引,需要在请求体中指定索引的信息
  • http://ip:port/index/type/_mappings 代表创建索引时,指定索引文档存储属性的信息

DELETE

  • http://ip:port/index 删库跑路

  • http://ip:port/index/type/doc_id 删除指定的文档

3、创建索引和索引的常用操作。

#创建一个索引

PUT /nts_db_index
{
  ""settings"": {
    ""number_of_shards"": 5, 
    ""number_of_replicas"": 1
  }
}
#分片数 默认是5
#备份数量模式1
GET /nts_db_index
# 会直接创建一个索引
PUT /tmp_db_index/au_user_type/1
{
    ""first_name"" : ""wb"",
    ""last_name"" :  ""zhang"",
    ""age"" :        25,
    ""about"" :      ""I love to go rock climbing"",
    ""interests"": [ ""sports"", ""music"" ]
}
PUT /tmp_db_index/au_user_type/2
{
    ""first_name"" :  ""Jane"",
    ""last_name"" :   ""Smith"",
    ""age"" :         32,
    ""about"" :       ""I like to collect rock albums"",
    ""interests"":  [ ""music"" ]
}

PUT /tmp_db_index/au_user_type/3
{
    ""first_name"" :  ""Douglas"",
    ""last_name"" :   ""Fir"",
    ""age"" :         35,
    ""about"":        ""I like to build cabinets"",
    ""interests"":  [ ""forestry"" ]
}
#查询索引信息 分片数 被分数 别名 属性类型等
GET /tmp_db_index
#查询 全部
GET /tmp_db_index/au_user_type/_search 
#根据id=1查询
GET /tmp_db_index/au_user_type/1
#删除索引
DELETE /tmp_db_index"		
{
  ""nts_db_index"" : {
    ""aliases"" : { }, 别名
    ""mappings"" : { }, 数据的结构
    ""settings"" : {
      ""index"" : {
        ""creation_date"" : ""1613207857440"",
        ""number_of_shards"" : ""5"", 分片数
        ""number_of_replicas"" : ""1"", 备份数
        ""uuid"" : ""w_bLH--GQI6EcrJL3THDzw"",
        ""version"" : {
          ""created"" : ""6050499""
        },
        ""provided_name"" : ""nts_db_index""
      }
    }
  }
}

kibana的索引查询页面

4、属性类型

string类型

  • text:一般用于全文检索 将当前属性进行分词
  • keyword:当前属性不会被分词

数值类型

  • long
  • integer
  • short
  • byte
  • double
  • float
  • half_float 精度比float小一半
  • scaled_float 根据一个long和scaled来表示一个浮点型 long-345 scaled-100 -->3.45

时间类型

  • date类型 针对具体格式的时间 yyyy-mm-dd hh-ms-ss long毫秒数

布尔类型

  • true
  • false

二进制类型

  • binary类型暂时只支持Base6 encoding string

范围类型

  • long_range 存储一个范围 无需指定具体内容 指定 gt lt gte lte
  • integer_range 以下均同上
  • double_range
  • float_range
  • dat_range
  • ip_range

位置类型

  • 经纬度 geo_point

ip类型

  • ipv4
  • ipv6

5、创建索引 指定属性的数据结构

PUT /book
{
  ""settings"": {
    ""number_of_shards"": 5,
    ""number_of_replicas"": 1
  },
  ""mappings"": {
    ""noval"":{
      ""properties"":{
        ""name"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word"",
          ""index"":true,
          ""store"":false
        },
        ""auther"":{
          ""type"":""keyword""
        },
        ""count"":{
          ""type"":""long""
        },
        ""on-time"":{
          ""type"":""date"",
          ""format"":""yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis""
        },
        ""desc"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word""
        }
      }
    }
  }
}

注释:

#创建索引,指定数据类型
PUT /book
{
  ""settings"": {
    #分片数
    ""number_of_shards"": 5,
    #备份数
    ""number_of_replicas"": 1
  },
    #指定数据类型
 ""mappings"": {
    #类型 Type
   ""novel"":{
    #文档存储的field
     ""properties"":{
       #field属性名
       ""name"":{
         #类型
         ""type"":""text"",
         #指定分词器
         ""analyzer"":""ik_max_word"",
         #指定当前的field可以被作为查询的条件
         ""index"":true,
         #是否需要额外存储
         ""store"":false
       },
       ""author"":{
         ""type"":""keyword""
       },
       ""count"":{
         ""type"":""long""
       },
       ""on-sale"":{
         ""type"":""date"",
           #指定时间类型的格式化方式
         ""format"": ""yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis""
       },
        ""descr"":{
          ""type"":""text"",
          ""analyzer"":""ik_max_word""
       }
     }
   }
 }
}

6、文档的操作

添加文档 自动生成id

POST /book/noval
{
  ""name"":""我和我的祖国"",
  ""auther"":""张文"",
  ""count"":100000,
  ""on-time"" : ""2021-02-14 14:20:06"",
  ""desc"":""我和我的祖国,一刻也不能分割,无论我走到哪里,都留下一首赞歌!""
}

添加文档 手动指定id

POST /book/noval/1
{
  ""name"":""我和我的家乡"",
  ""auther"":""杜卓"",
  ""count"":2222222,
  ""on-time"" : ""2021-2-14 14:22:55"",
  ""desc"":""我和我的家乡大枣庄,真漂亮啊真漂亮,我爱吃辣子鸡和莲蓬啊!""
}

修改文档 覆盖式修改

POST /book/noval/1
{
  ""name"":""我和我的家乡"",
  ""auther"":""杜卓1"",
  ""count"":22220000,
  ""on-time"" : ""2021-2-14 14:22:55"",
  ""desc"":""我和我的家乡大枣庄,真漂亮啊真漂亮,我爱吃辣子鸡和莲蓬啊!""
}

修改文档 基于doc的方式

POST /book/noval/1/_update
{
  ""doc"": {
    ""count"":6666666
  }
}

根据id删除文档

DELETE /book/noval/DEU1n3cBhRoCqt_4gtk7 	

查询操作,GET 或者 POST(带条件的)都可以

7、ES查询语法

查询 相当于mysql的limit 分页
from size (默认 0 20)

GET /sms-logs-index/sms-logs-type/_search
{
  ""from"": 0,
  ""size"": 4
}
7.1 term查询

代表的是完全匹配,搜索之前不会对搜索关键字进行分词,对你的关键字去分词库中匹配内容

# term查询
GET /sms-logs-index/sms-logs-type/_search
{
  ""from"": 0,
  ""size"": 4,
  ""query"": {
    ""term"": {
      ""province"": {
        ""value"": ""上海""
      }
    }
  }
}
# 如果用"上"匹配则匹配不上
# 相当于 where province = "上海"
7.2 terms查询

与term查询一样 都不对查询的关键字进行分词 直接去分词库里面匹配 找到相应的文档内容
terms是针对一个字段包含多个值的时候使用

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""terms"": {
      ""province"": [
        ""上海"",
        ""北京""
      ]
    }
  }
}
# 相当于where province = "上海" or province = "北京" 

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""term"": {
      ""smsContent"": [
        ""孩子""
      ]
    }
  }
}
# terms也可以  不仅仅是关键字 普通的文本分词以后也可以
7.3 match查询

match查询属于高层查询,会根据查询的字段类型不同采取不同的查询方式
查询的是日期或数值类型,会基于查询字符串内容转为日期或者数值对待 。
如果查询的内容不是一个不能被分词的内容(keyword),match查询不会对指定的内容进行分词。
如果查询的内容是一个不能被分词的内容(text),match查询会对指定的内容进行分词,去分词库中匹配指定的内容。

match查询底层就是多个term查询封装到了一起。

7.3.1 match_all 查询

查询全部内容,不指定任何查询条件 默认只查询出来10条 可以加size限制"

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match_all"": {}
  }
}
7.3.2 match 查询

指定一个属性作为筛选的条件

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": ""一个没有实力的男人""
    }
  }
# ik分词后:一个,一,个,没有,实力,男人
7.3.3 布尔 match 查询

and 或者 or

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": {
      ""query"": ""孩子 中年"",
      ""operator"": ""and""
      }
    }
  }
}
# and 内容既包含孩子也包含中年
# or 内容包含孩子或者中年
7.3.4 multi_match查询

针对多个属性进行检索,多个field对应一个内容
match是一个属性

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""multi_match"": {
      ""query"": ""北京"",
      ""fields"": [""province"",""corpName""]
    }
  }
}
7.4、其他查询
7.4.1 id查询

查询id是8的文档

GET /sms-logs-index/sms-logs-type/8	
7.4.2 ids查询

根据多个id查询 类似in

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""ids"": {
      ""values"": [""1"",""2"",""8""]
    }
  }
}
7.4.2 前缀查询prefix

可以通过一个关键字去指定一个属性的前缀,去匹配文档,类似sql中的 like ‘海尔%’

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""prefix"": {
      ""corpName"": {
        ""value"": ""海尔""
      }
    }
  }
}

对比下match查询

#以海尔开头的,而match则匹配不上 
GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""corpName"": ""海尔""
    }
  }
}
7.4.3 fuzzy查询 模糊查询

根据输入字符的大概去匹配 错别字
不太稳定
数据量大的话不支持 可以加参数,保证前面几个字符是不能出错的

GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""fuzzy"": {
      ""corpName"": {
        ""value"": ""海尔电气""
      }
    }
  }
}
GET /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""fuzzy"": {
      ""corpName"": {
        ""value"": ""格力汽扯"",
        ""prefix_length"": 3
      }
    }
  }
}
7.4.4 wildcard查询 通配符 占位符

和like一个套路,使用通配符*和占位符?

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""wildcard"": {
      ""corpName"": {
        ""value"": ""*力*""
      }
    }
  }
}
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""wildcard"": {
      ""corpName"": {
        ""value"": ""海尔????""
      }
    }
  }
}
7.4.5 range查询 只针对数值类型范围查询

对某一个fiId进行大于或小于的范围指定

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""range"": {
      ""replyTotal"": {
        ""gte"": 3,
        ""lte"": 15
      }
    }
  }
}

gte ≥
lte ≤
gt >
lt <

7.4.6 regexp查询 正则匹配

通过编写的正则表达式来匹配文档

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""regexp"": {
      ""mobile"": ""138[0-9]{8}""
    }
  }
}
7.4.7 深分页 scroll

效率高 放到内存中 但使用场景为不是实时的数据
ES对from+size是有限制的,数量不超过1w
from+size原理
1、将查询关键字分词
2、将词汇去分词库中检索,得到多个文档id
3、去各个分片中拉取指定的数据,耗时较长
4、将数据根据score分数排序
5、根据from的值将数据舍弃一部分
6、返回数据
scroll原理
1、将查询关键字分词
2、将词汇去分词库中检索 得到多个文档id
3、将文档id放到ES的一个上下文中
4、将指定的size去es中检索指定的数据 拿完文档的id,会从上下文中移除
5、如果找下一页内容,直接去es的上下文中找
不适合做实时的数据查询

# 指定生存时间为1分钟
# 默认是id排序 也可指定
POST /sms-logs-index/sms-logs-type/_search?scroll=1m
{
  ""query"": {
    ""match_all"": {}
  },
  ""size"": 3
}

#加排序
POST /sms-logs-index/sms-logs-type/_search?scroll=1m
{
  ""query"": {
    ""match_all"": {}
  },
  ""size"": 3,
  ""sort"": [
    {
      ""fee"": {
        ""order"": ""desc""
      }
    }
  ]
}
# 查询下一页数据
POST /_search/scroll
{
  ""scroll_id"":
  ""DnF1ZXJ5VGhlbkZldGNoAwAAAAAAAAX4Fk4yWlZWaFNTUmR1bzB4V1VfU1ZQcFEAAAAAAAAF-RZOMlpWVmhTU1JkdW8weFdVX1NWUHBRAAAAAAAABfoWTjJaVlZoU1NSZHVvMHhXVV9TVlBwUQ=="",
  ""scroll"":""1m""
}
7.4.8 复合查询 bool

bool查询 复合过滤器,将多个查询条件组合在一起

  • must 所有的条件 组合在一起 and
  • must_not 将条件 全部不能匹配 not
  • should 所有的条件 组合一起 or
#bool 省份是北京或者上海 公司不是阿里开头的 内容包含孩子和中年的数据
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""bool"": {
      ""should"": [
        {
          ""term"": {
            ""province"": {
              ""value"": ""北京""
            }
          }
        },{
          ""term"": {
            ""province"": {
              ""value"": ""上海""
            }
          }
        }
      ], 
      ""must_not"": [
        {
          ""wildcard"": {
          ""corpName"": {
          ""value"": ""阿里*""
          }
          }
        }
      ],
      ""must"": [
        {
          ""match"": {
            ""smsContent"": ""孩子""
          }
        },
        {""match"": {
          ""smsContent"": ""中年""
        }}
      ]
    }
  }
}
7.4.9 bootsting查询 score 分数排序

可以帮助我们去影响查询后的score 从而影响排序
score分数:
1、搜索的关键字在文档中出现的频率越高,分数越高
2、文档内容越短 分数越高
3、搜索的关键字分词以后匹配到的内容越多 分数越高

positive 只有匹配上positive的内容才会返回到结果集中
negative 如果匹配上positive和negative,会降低文档的score
negative_boost 指定系数 必须小于1

#boosting 
POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""boosting"": {
      ""positive"": {
        ""match"": {
          ""smsContent"": ""有实力的男人""
        }
      },
      ""negative"": {
        ""match"": {
          ""smsContent"": ""中年人""
        }
      },
      ""negative_boost"": 0.5
    }
  }
}
7.4.10 filter查询 数据做缓存

query查询是根据查询条件去计算文档匹配到的分数,并且根据分数进行排序,不会做缓存
filter查询是根据条件去查询文档,不计算分数,而且会对经常被过滤的数据进行缓存,查出来的数据分数都是0

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""bool"": {
      ""filter"": [
        {
          ""term"": {
          ""province"": ""北京""
          }
        },
        {
        ""range"": {
          ""fee"": {
            ""gte"": 30,
            ""lte"": 80
          }
        }
      }
      ]
    }
  }
}
7.4.11 高亮查询 将查询关键字添加样式

高亮展示的数据,本身就是文档中的一个field,单独将field以高亮的形式返回
highlight属性 和query同级

pre_tag 指定前缀标签 如 <font color =““red””>
post_tag 指定后缀标签
fragment_zise 指定高亮数据展示多少个字符回来

POST /sms-logs-index/sms-logs-type/_search
{
  ""query"": {
    ""match"": {
      ""smsContent"": ""蕴气式""
    }
  },
  ""highlight"": {
    ""fields"": {
       ""smsContent"": {}
    },
    ""pre_tags"": ""<font color ='red'>"",
    ""post_tags"": ""</font>"",
    ""fragment_size"" :10
  }
}

7.4.12 聚合查询

和MySQL的聚合查询类似,ES的聚合查询更加强大,提供的统计方式多种多样

restful语法:

POST /index/type/_search
{
    ""aggs"":{
        ""(名字 随意哦)agg"":{
            ""agg_type"":{
                ""属性"":""值""
            }
        }
    }
}

去重计数
省份去重 province_distinct

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""province_distinct"": {
      ""cardinality"": {
        ""field"": ""province""
      }
    }
  }
}
7.4.13 范围统计

统计一个范围内出现的文档个数。
比如一个field的值在0-100,100-200等出现的个数 分别统计
针对数值类型、时间类型、ip类型,对应的语法:range、date_dange、ip_range

数值类型 range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""range"": {
        ""field"": ""fee"",
        ""ranges"": [
          {
            ""to"": 30
          },
          {
            ""from"": 30,
            ""to"": 50
          },{
            ""from"": 50
          }
        ]
      }
    }
  }
}
from是带等号的

时间类型 查询 date_range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""date_range"": {
        ""field"": ""createDate"",
        ""format"": ""yyyy"", 
        ""ranges"": [
          {
            ""from"": ""2020"",
            ""to"": ""2022""
          }
        ]
      }
    }
  }
}

ip类型 ip_range

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""ip_range"": {
        ""field"": ""ipAddr"",
        ""ranges"": [
          {
            ""to"": ""127.0.0.4""
          },
          {
            ""from"": ""127.0.0.4"",
            ""to"": ""127.0.0.8""
          },{
            ""from"": ""127.0.0.8""
          }
        ]
      }
    }
  }
}
7.4.14 统计聚合查询 求某一列的聚合函数

求指定field的最大值 最小值 平均数 平方和等

POST /sms-logs-index/sms-logs-type/_search
{
  ""aggs"": {
    ""agg"": {
      ""extended_stats"": {
        ""field"": ""fee""
      }
    }
  }
}

结果:

{
  ""count"" : 13,
  ""min"" : 18.0,
  ""max"" : 90.0,
  ""avg"" : 54.0,
  ""sum"" : 702.0,
  ""sum_of_squares"" : 44460.0,
  ""variance"" : 504.0,
  ""std_deviation"" : 22.44994432064365,
  ""std_deviation_bounds"" : {
    ""upper"" : 98.8998886412873,
    ""lower"" : 9.100111358712702
  }
}
7.4.15 地图经纬度搜索

经纬度 geo_point

#创建地图索引
PUT /map
{
  ""settings"": {
    ""number_of_shards"": 5, 
    ""number_of_replicas"": 1
  },
  ""mappings"": {
    ""bj_map"":{
      ""properties"":{
        ""name"":{
          ""type"":""text""
          },
          ""location"":{
            ""type"":""geo_point""
          }
        }
      }
    }
}
#地图索引插入数据
PUT /map/bj_map/1
{
  ""name"":""北京科技职业学院"",
  ""location"":{
    ""lon"": 116.257172,
    ""lat"": 40.123649
  }
}
PUT /map/bj_map/2
{
  ""name"":""广洋公寓"",
  ""location"":{
    ""lon"": 116.267578,
    ""lat"": 40.132317
  }
}"	"PUT /map/bj_map/3
{
  ""name"":""飞腾家园"",
  ""location"":{
    ""lon"": 116.382617,
    ""lat"": 39.808707
  }
}
PUT /map/bj_map/4
{
  ""name"":""模式口西里"",
  ""location"":{
    ""lon"": 116.156704,
    ""lat"": 39.940053
  }
}
PUT /map/bj_map/5
{
  ""name"":""老山东里"",
  ""location"":{
    ""lon"": 116.231905,
    ""lat"": 39.91603
  }
}"

地图检索方式

  • geo_distance 直线距离检索方式
  • geo_bounding_box 以两个点确定一个矩形 获取矩形内的位置
  • geo_polygon 以多个点 确认一个多边形 获取多边形内的全部位置

geo_distance

POST /map/bj_map/_search
{
  ""query"": {
  ""geo_distance"":{
    ""location"":{ #指定位置
      ""lon"" : 116.372097,
      ""lat"" : 39.818302
     },
     ""distance"": 2000,    #半径
     ""distance_type"":""arc""   #圆形
    }
  }
}

结果:

# 新宫 直径2000米内的
{
  ""took"" : 6,
  ""timed_out"" : false,
  ""_shards"" : {
    ""total"" : 5,
    ""successful"" : 5,
    ""skipped"" : 0,
    ""failed"" : 0
  },
  ""hits"" : {
    ""total"" : 1,
    ""max_score"" : 1.0,
    ""hits"" : [
      {
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""3"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""飞腾家园"",
          ""location"" : {
            ""lon"" : 116.382617,
            ""lat"" : 39.808707"

geo_bounding_box

# 两个点确认一个矩形 指定左上角的坐标和右下角的坐标
POST /map/bj_map/_search
{
  ""query"": {
  ""geo_bounding_box"":{
    ""location"":{
      ""top_left"":{
        ""lon"" : 116.193999,
        ""lat"" : 39.99746
      },
      ""bottom_right"":{
       ""lon"" : 116.421666,
      ""lat"" : 39.518215
      }
     }
    }
  }
}

结果:

{
	{
		""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""5"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""老山东里"",
          ""location"" : {
            ""lon"" : 116.231905,
            ""lat"" : 39.91603
        }
      },
      {
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""3"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""飞腾家园"",
          ""location"" : {
            ""lon"" : 116.382617,
            ""lat"" : 39.808707
       }
}

geo_polygon

POST /map/bj_map/_search
{
  ""query"": {
    ""geo_polygon"":{
      ""location"":{
       ""points"":[
         {
           ""lon"" : 116.218778,
           ""lat"" : 39.930794
         },
         {
           ""lon"" : 116.259525,
            ""lat"" : 9.930628
         },
         {
           ""lon"" : 116.197003,
           ""lat"" : 39.913696
         },
         {
           ""lon"" : 116.242134,
           ""lat"" : 39.913253
         }
        ]
      }
    }
  }
}

结果:

{
        ""_index"" : ""map"",
        ""_type"" : ""bj_map"",
        ""_id"" : ""5"",
        ""_score"" : 1.0,
        ""_source"" : {
          ""name"" : ""老山东里"",
          ""location"" : {
            ""lon"" : 116.231905,
            ""lat"" : 39.91603
          }
}
7.4.16 delete-by-query 删除查询到的结果

根据term/match等查询方式去删除大量的文档
建议备份 大量数据不推荐
底层还是按照id一个一个删除

 POST /sms-logs-index/sms-logs-type/_delete_by_query
{
  ""query"": {
    ""range"": {
      ""replyTotal"": {
        ""gte"": 3,
        ""lte"": 6
      }
    }
  }
}

删除结果:

{
  ""took"" : 26,
  ""timed_out"" : false,
  ""total"" : 2,
  ""deleted"" : 2,
  ""batches"" : 1,
  ""version_conflicts"" : 0,
  ""noops"" : 0,
  ""retries"" : {
    ""bulk"" : 0,
    ""search"" : 0
  },
  ""throttled_millis"" : 0,
  ""requests_per_second"" : -1.0,
  ""throttled_until_millis"" : 0,
  ""failures"" : [ ]
}

本文标签: 语法 笔记 工具 ES docker