1.部署单点es1.1.创建网络因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络:dockernetworkcreatees-net1.2.加载镜像这里我们采用elasticsearch的7.12.1版本的镜像,这个镜像体积非常大,接近1G。不建议大家自己pull。课前资料提供了镜像的tar包:大家将其上传到虚拟机中,然后运行命令加载即可:#导入数据dockerload-ies.tar同理还有kibana的tar包也需要这样做。1.3.运行运行docker命令,部署单点es:dockerrun-d\ --namees\-e"ES_JAVA_OPTS=
四、IK分词器(elasticsearch插件)IK分词器:中文分词器分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一一个匹配操作,默认的中文分词是将每个字看成一个词(不使用用IK分词器的情况下),比如“我爱狂神”会被分为”我”,”爱”,”狂”,”神”,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。IK提供了两个分词算法:ik_smart和ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分!1、下载版本要与ElasticSearch版本对应下载
Docker上安装Elasticsearch、Kibana和IK分词器随着大数据和日志管理的兴起,Elasticsearch和Kibana成为了许多开发者和系统管理员首选的工具,我接下来使用的版本是8.11.0,我实测测试过都能成功安装的版本有:7.6.2、8.1.0、8.6.0等。安装ElasticsearchDocker仓库官网步骤一:创建Docker网络为了让Elasticsearch和Kibana能够相互通信,我们需要创建一个Docker网络。使用以下命令创建一个名为es-network的网络:dockernetworkcreatees-network步骤二:创建Elasticsear
1.建了一个索引,字段text,分词器选的ik_max_word,写入的时候报下面一个错。。exception:"startOffsetmustbenon-negative,andendOffsetmustbe>=startOffset,andoffsetsmustnotgobackwardsstartOffset=2,endOffset=3,lastStartOffset=3forfield'description'"2.网上也有人遇到同样问题:https://github.com/medcl/elasticsearch-analysis-ik/issues/6623.把索引删了重建,用ik
准备基础镜像注意一定要拉取和当前IK分词插件版本一致的OpenSearch镜像:https://github.com/aparo/opensearch-analysis-ik/releases写这篇文章的时候IK最新版本2.11.0,而dockerhub上OpenSearch最新版是2.11.1如果版本不匹配的话是不能用的,小版本号对不上也不行!已经踩过坑了…#拉取对应版本的opensearch/dashboardimagedockerpullopensearchproject/opensearch:2.11.0dockerpullopensearchproject/opensearch-da
文章目录一、Elasticsearch二、Kibana三、访问四、其他五、ik分词器第一种:在线安装第二种:离线安装六、ik分词器的扩展和停用1.配置2.测试七、pinyin分词器离线安装注意事项Elasticsearch和Kibana版本一般需要保持一致才能一起使用,但是从8.x.x开始,安全验证不断加强,甚至8.x.x之间的版本安全验证方法都不一样,真的很恼火。这里记录一次成功简单登陆Kibana的实际经验。一、Elasticsearch运行Elasticsearch容器dockerrun-d\ --namees\ -e"ES_JAVA_OPTS=-Xms512m-Xmx512m"\ -e
下载elasticsearchwget https://artifacts.elastic.co/downloads/elasticserch/elasticsearch-7.17.10.tar.gz解压elsaticsearch到/usr/local/elasticsearchtar-zxvf elasticsearch-7.17.10.tar.gz修改配置文件elasticsearch.ymlvim /usr/local/elasticsearch-7.17.10/config/elasticsearch.yml#集群名称cluster.name:myelasticsearch#es节点i
一、什么是IK分词器所谓分词,即把一段中文或者别的划分成一个个的关键字,我们在搜索时会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配的操作,默认的中文分词器是将每一个字看成一个词,比如“我爱中国”会被分成“我”、“爱”、“中”、“国”,这显然是不符合要求的,所以我们需要安装中文分词器IK来解决这个问题!二、IK分词器的分词算法1、ik__smart最少切分2、ik_max_word最细粒度划分三、安装IK1、官网地址:GitHub-medcl/elasticsearch-analysis-ik:TheIKAnalysispluginintegratesLucen
目录搭建docker1.2安装yum工具 1.3更新阿里镜像源1.4下载docker1.5关闭防火墙1.6启动docker1.7查看docker版本1.8配置阿里云镜像1.8.1创建文件夹1.8.2在文件夹内新建一个daemon.json文件1.8.3重载文件1.9重启docker2安装MySQL3安装nacos3.1拉取nacos镜像并启动3.2启动nacos命令3.3命令敲完了,检查一下Nacos运行状态.4.安装redis集群及哨兵redis版本主从结构启动主redis启动1号从redis启动2号从redis查看主从信息inforeplication哨兵sentinel哨兵1号启动2号哨
安装elasticsearch、kibana、IK分词器、扩展IK词典后面还会安装kibana,这个会提供可视化界面方面学习。需要注意的是elasticsearch和kibana版本一定要一样!!!否则就像这样elasticsearch1、创建网络因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络:dockernetworkcreatees-net2、镜像安装pull安装因为镜像文件比较大,将近1个G所以下载会很慢,根据自己需求选择合适方式。如果觉得比较大,可以找一个现成的镜像包之后拖到虚拟机里面即可。dockerpullelasticsearch:7