在 Windows 上的环境搭建Elasticsearch

      本文介绍如何在 windows 10 ,64位操作系统上安装最新版本 Elasticsearch、以及相关插件。之前看了不少园友的文章,用到的版本都比较低,尤其是插件的版本要和ES的版本相对应等这些问题,介绍的不是很详细,干脆自己记录一下安装配置过程,也供他人参考。

Elasticsearch简介

      Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。

配置 java 环境

      由于ES是Java语言开发的,所以这里需要先安装Java环境,jdk 下载地址是:

              https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

      下载时,需要先注册Oracle账号,注册后选择下载 Windows x 64 .exe 这个最新版本(目前是 2020年7月,版本是 jdk14 )

       

      双击 jdk-14_windows-x64-bin ,然后一直点击 “下一步” 按钮,直到安装完毕,默认的安装路径是  C:\Program Files\Java\jdk-14\   按照默认路径安装即可

      接下来,需要配置Java环境变量,右击 “我的电脑”  ——点击 “属性” ——点击 “高级系统设置”,如下图

      

 

      在新窗口的 “高级” 选项卡中,点击 “环境变量” ,再点击系统变量(S)里的 “新建” 按钮,弹出新窗口如下图所示

   

      变量名填入: JAVA_HOME        变量值填入安装的路径: C:\Program Files\Java\jdk-14  

      然后在系统变量(S)中,选中Path 这个变量,点击 “编辑” 按钮,打开编辑窗口,再点击 “新建” 按钮,输入 %JAVA_HOME%\bin 如下图所示

   

      最后验证一下配置是否成功,打开 cmd 窗口(以管理员形式打开),输入命令  java  -version  或者命令 javac 可以看安装是否成功,如下图

     

      以上说明安装成功,java 版本是14 

下载并安装 Elasticsearch

      ES工具包下载地址是:http://www.elasticsearch.org/download/

      我们选择版本 7.8.0 window 这个版本,先在D盘建一个 ES 目录(方便管理),将下载的包解压到 ES 目录中,如下图所示

      

      以管理员身份运行,打开cmd窗口,进入ES的bin目录:  cd /d D:\ES\elasticsearch-7.8.0\bin

      然后运行命令  elasticsearch.bat

      

      稍等片刻,然后在浏览器中访问 http://localhost:9200/

      

      以上说明 ES 相关包已经成功安装

安装Head插件

      安装 Head 插件的前提,是需要将 node、grunt 安装和配置完善。

1、首先下载 node.js

      下载地址是  https://nodejs.org/en/download/ 

      选择window 64位的版本 v12.18.1,一直点击 “下一步” 按钮,直到安装完毕,下载完成可以通过命令  node  -v   查看安装版本以及是否成功,如下图

            

2、安装grunt   

      以管理员身份打开cmd命令窗口,执行 npm install -g grunt-cli   然后通过  grunt -version  看安装的版本

           

3、下载 Head

      Head 相关文档   http://mobz.github.io/elasticsearch-head/ 

      或者直接到  https://github.com/mobz/elasticsearch-head 下载 zip 包到本地。请注意,上面ES安装的版本是 v.7.8.0 ,这里 Head 插件也要选择 master 这个版本下载。

      下载完,我们将其解压到上面提到的D盘ES目录,跟ES放在同一级目录,方便管理,如下图所示

           

      cmd 进入head 目录: cd /d D:\ES\elasticsearch-head-master

      然后执行命令:npm install  如下图所示

           

      上图执行过程卡住了,主要是缺少 phantomjs-2.1.1-windows ,按照上边的提示,先下载这个文件,

      然后放在目录 C:\Users\ADMINI~1\AppData\Local\Temp\phantomjs\phantomjs-2.1.1-windows.zip

      顺便解压一下,再重新试一下执行 npm install ,这次执行成功了,见下图

           

      然后执行 npm start ,启动 Head 插件,如下图所示

           

      再访问  http://localhost:9100 可以看到下图效果

           

      虽然Head已经是安装成功,但是目前是未连接状态,上网查一下资料,需要做以下配置:

      找到文件  D:\ES\elasticsearch-7.8.0\config\elasticsearch.yml   在该文件最后添加以下语句:

                   http.cors.enabled: true

                   http.cors.allow-origin: "*"

      然后再重启ES,重启Head:

                   重启ES             cd /d D:\ES\elasticsearch-7.8.0\bin\elasticsearch.bat

                   重启Head         cd /d D:\ES\elasticsearch-head-master\npm start

      再访问 http://localhost:9200/  以及  http://localhost:9100/ 

      这时可以看到,现在连接上了,灰色变成绿色,Head 安装成功。

      为什么要这样配置,可以参考文章  https://www.cnblogs.com/sanduzxcvbnm/p/11969634.html

            

      总结一下,Head 插件安装比较麻烦,但是通过看报错信息以及网上资料文档,多多尝试,是可以解决的。

安装 Kibana

      Kibana 插件是一个可视化的插件,非必须,如果需要安装也可以参考以下的流程

      下载地址是  https://www.elastic.co/cn/downloads/kibana

      注意,我们 用的ES版本是 v7.8.0 , Kibana 安装的版本也是要和ES的同步,这里选择 Kibana版本为 7.8.0

      同样,下载完毕后,我们将其解压到  D:\ES\kibana-7.8.0

      同样以管理员身份打开cmd 窗口执行命令

             cd /d D:\ES\kibana-7.8.0\bin

             kibana.bat

      执行完,能正常打开 http://localhost:5601 即成功,Kibana 要怎么用,以后再来详细说明。

安装分词器 IK

      ES默认的分词器,对中文的分解不是很好,所以需要用到其它分词器,这里以IK分词器为例,介绍怎么安装。

      首先往ES添加索引,用 postman 提交数据:

      put    http://localhost:9200/db_news/new/1   

      注意:这次提交,会自动创建索引库 db_news 并创建文档 type=new  id=1,其实在ES7版本中,已经弃用 type 的概念,实际上应该是  put   http://localhost:9200/db_news/_doc/1

      如果要查看ES创建的索引库 db_news 的结构,可以这样查询  get    http://localhost:9200/db_news/_mapping 后面的博客将会继续讲解 mapping,这里不再详细解说

1
2
3
4
5
{
    "title":"今日头条新闻",
    "author":"新华时报记者",
    "content":"今日券商股继续涨停"
}

      提交后可以看到返回结果

1
2
3
4
5
6
7
8
9
10
11
12
13
14
{
    "_index": "db_news",
    "_type": "new",
    "_id": "1",
    "_version": 1,
    "result": "created",
    "_shards": {
        "total": 2,
        "successful": 1,
        "failed": 0
    },
    "_seq_no": 0,
    "_primary_term": 1
}

      如果我们用ES原生的分词器,例如 

      get   http://localhost:9200/db_news/_analyze

1
2
3
4
{
   "analyzer":"standard",
   "text":"我是中国人,我爱自己的祖国"
}

      分词结果是

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
{
    "tokens": [
        {
            "token": "我",
            "start_offset": 0,
            "end_offset": 1,
            "type": "<IDEOGRAPHIC>",
            "position": 0
        },
        {
            "token": "是",
            "start_offset": 1,
            "end_offset": 2,
            "type": "<IDEOGRAPHIC>",
            "position": 1
        },
        {
            "token": "中",
            "start_offset": 2,
            "end_offset": 3,
            "type": "<IDEOGRAPHIC>",
            "position": 2
        },
        {
            "token": "国",
            "start_offset": 3,
            "end_offset": 4,
            "type": "<IDEOGRAPHIC>",
            "position": 3
        },
        {
            "token": "人",
            "start_offset": 4,
            "end_offset": 5,
            "type": "<IDEOGRAPHIC>",
            "position": 4
        },
        {
            "token": "我",
            "start_offset": 6,
            "end_offset": 7,
            "type": "<IDEOGRAPHIC>",
            "position": 5
        },
        {
            "token": "爱",
            "start_offset": 7,
            "end_offset": 8,
            "type": "<IDEOGRAPHIC>",
            "position": 6
        },
        {
            "token": "自",
            "start_offset": 8,
            "end_offset": 9,
            "type": "<IDEOGRAPHIC>",
            "position": 7
        },
        {
            "token": "己",
            "start_offset": 9,
            "end_offset": 10,
            "type": "<IDEOGRAPHIC>",
            "position": 8
        },
        {
            "token": "的",
            "start_offset": 10,
            "end_offset": 11,
            "type": "<IDEOGRAPHIC>",
            "position": 9
        },
        {
            "token": "祖",
            "start_offset": 11,
            "end_offset": 12,
            "type": "<IDEOGRAPHIC>",
            "position": 10
        },
        {
            "token": "国",
            "start_offset": 12,
            "end_offset": 13,
            "type": "<IDEOGRAPHIC>",
            "position": 11
        }
    ]
}

      显然,这样的分词毫无意义,这也是我们要安装IK分词器的原因。

      IK分词器下载地址   https://github.com/medcl/elasticsearch-analysis-ik   同样用 7.8.0 版本

      在 D:\ES\elasticsearch-7.8.0\plugins 新建 ik 文件夹,将以上下载的包解压到这里,如下图所示

       

      然后重启 ES,再进行IK分词测试

      Get  http://localhost:9200/db_news/_analyze

1
2
3
4
{
    "analyzer":"ik_smart",
    "text":"我是中国人,我爱自己的祖国"
}

      返回分词结果是

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
{
    "tokens": [
        {
            "token": "我",
            "start_offset": 0,
            "end_offset": 1,
            "type": "CN_CHAR",
            "position": 0
        },
        {
            "token": "是",
            "start_offset": 1,
            "end_offset": 2,
            "type": "CN_CHAR",
            "position": 1
        },
        {
            "token": "中国人",
            "start_offset": 2,
            "end_offset": 5,
            "type": "CN_WORD",
            "position": 2
        },
        {
            "token": "我",
            "start_offset": 6,
            "end_offset": 7,
            "type": "CN_CHAR",
            "position": 3
        },
        {
            "token": "爱",
            "start_offset": 7,
            "end_offset": 8,
            "type": "CN_CHAR",
            "position": 4
        },
        {
            "token": "自己",
            "start_offset": 8,
            "end_offset": 10,
            "type": "CN_WORD",
            "position": 5
        },
        {
            "token": "的",
            "start_offset": 10,
            "end_offset": 11,
            "type": "CN_CHAR",
            "position": 6
        },
        {
            "token": "祖国",
            "start_offset": 11,
            "end_offset": 13,
            "type": "CN_WORD",
            "position": 7
        }
    ]
}

      可以看到,分词后不再是一个汉字分成一组,而是一个名词分成一组,这样方便我们进行关键词匹配和检索,具体用法可以看后续博文,至此,IK分词也安装成功。

本文关于环境搭建的过程,已经写得很详细了,关于ES的应用,可以看后续的更新。

总结

      启动 ES           cd /d D:\ES\elasticsearch-7.8.0\bin     再执行 elasticsearch.bat       访问  http://localhost:9200/

      启动Head        cd /d D:\ES\elasticsearch-head-master   再执行 npm start             访问  http://localhost:9100/

      启动Kibana      cd /d D:\ES\kibana-7.8.0\bin   再执行 kibana.bat                          访问  http://localhost:5601

      存在问题:以上我安装IK分词器后,直接重启ES,分词器马上生效,如果我换其它分词器,是不是也是直接重启ES就可以了呢?

                       还有,如果我原来就建立了索引库,更新分词器后,应该怎么处理原来的索引?知道的朋友可以评论一下。

公司简介

 

自1996年以来,公司一直专注于域名注册、虚拟主机、服务器托管、网站建设、电子商务等互联网服务,不断践行"提供企业级解决方案,奉献个性化服务支持"的理念。作为戴尔"授权解决方案提供商",同时提供与公司服务相关联的硬件产品解决方案。
备案号: 豫ICP备05004936号-1

联系方式

地址:河南省郑州市经五路2号

电话:0371-63520088

QQ:76257322

网站:800188.com

电邮:该邮件地址已受到反垃圾邮件插件保护。要显示它需要在浏览器中启用 JavaScript。