docker-compse安装es(包括IK分词器扩展)、kibana、libreoffice

这篇具有很好参考价值的文章主要介绍了docker-compse安装es(包括IK分词器扩展)、kibana、libreoffice。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Kibana是一个开源的分析与可视化平台,设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。
Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等,直观的展示数据,从而达到高级的数据分析与可视化的目的。
Elasticsearch、Logstash和Kibana这三个技术就是我们常说的ELK技术栈,可以说这三个技术的组合是大数据领域中一个很巧妙的设计。
一种很典型的MVC思想,模型持久层,视图层和控制层。Logstash担任控制层的角色,负责搜集和过滤数据。Elasticsearch担任数据持久层的角色,
负责储存数据。而我们这章的主题Kibana担任视图层角色,拥有各种维度的查询和分析,并使用图形化的界面展示存放在Elasticsearch中的数据。
 

1.1 Elasticsearch 安装

官网

Elasticsearch 平台 — 大规模查找实时答案 | Elastic

Install Elasticsearch with Docker | Elasticsearch Guide [7.5] | Elastic

es下载地址

https://www.elastic.co/cn/downloads/past-releases#elasticsearch

1.2 Elasticsearch ik 安装

ik官网

https://github.com/infinilabs/analysis-ik

ik下载地址

Release v6.4.3 · infinilabs/analysis-ik · GitHub

1.3 kibana下载

Kibana 官方网址:https://www.elastic.co/cn/products/kibana
Kibana 官方下载地址:https://www.elastic.co/cn/downloads/kibana
官方 docker 镜像地址:https://www.docker.elastic.co/
                 

1.4 libreOffice下载(预览pdf)

Index of /libreoffice/old

单机版:
compose-prq-es.yml文件

本章以

elasticsearch:7.9.0、  

kibana:7.9.0、                                     (es界面)

elasticsearch-analysis-ik-7.9.0.zip    (分词器)

libreoffice/online:latest为例                  (pdf预览) 

注意kibana的版本要和es一致

# yaml 配置
version: '3'
services:
  elasticsearch:
    image: "elasticsearch:7.9.0"
    container_name: "elasticsearch"
    restart: always
    privileged: true
    environment:
      - "discovery.type=single-node" # 单机模式
      - "ES_JAVA_OPTS=-Xms512m -Xmx1024m"  #表示elasticsearch的内存占用大小从512mb~1024mb
        #      - bootstrap.memory_lock=true
    volumes:
      - "/home/docker/volumes/prq_data/_data/elasticsearch_data/plugins:/usr/share/elasticsearch/plugins"
      - "/home/docker/volumes/prq_data/_data/elasticsearch_data/data:/usr/share/elasticsearch/data"
      - "/home/docker/volumes/prq_data/_data/elasticsearch_data/logs:/usr/share/elasticsearch/logs"
      - "/etc/localtime:/etc/localtime"
      - "/etc/timezone:/etc/timezone"
    ports:
      - 9200:9200
      - 9300:9300

  kibana:
    image: "kibana:7.9.0"
    container_name: "kibana"
    restart: always
    depends_on:
      - elasticsearch
    environment:
      ELASTICSEARCH_HOSTS: http://10.194.17.106:9200
      I18N_LOCALE: zh-CN
    ports:
      - 5601:5601

  libreoffice:
    image: "libreoffice/online:latest"
    container_name: "libreoffice"
    ports:
      - "9980:9980"
    restart: always
    privileged: true
    volumes:
      - "/etc/localtime:/etc/localtime"
      - "/etc/timezone:/etc/timezone"
      - "/home/docker/volumes/prq_data/_data/libreoffice_data/loolwsd.xml:/etc/loolwsd/loolwsd.xml"
    environment:
      - domian=domain.com
      - username=admin
      - password=123456
    cap_add:
      - MKNOD
install.sh脚本
#!/bin/bash

echo "current shell execute direcoty:`pwd`"
updatedb
path=`dirname $variable_path`
echo "swich direcoty to prq shell directory:${path}"
cd ${path}
pwd


image_home="./images"
image_kibana="kibana-7.9.0.tar.gz"
image_libreoffice="libreoffice-online.tar.gz"
image_es="elasticsearch-7.9.0.tar.gz"

# prq文件映射路径 prq_data_path
prq_data_path="/home/docker/volumes/prq_data/_data"



echo "Loading docker images ..."
docker load -i ${image_home}/${image_es}
docker load -i ${image_home}/${image_libreoffice}
docker load -i ${image_home}/${image_kibana}

echo "Creating volumes ..."
docker volume create prq_data


echo "preparing for envrionment ..."

mkdir -vp ${prq_data_path}/elasticsearch_data/plugins/ik ${prq_data_path}/elasticsearch_data/data ${prq_data_path}/elasticsearch_data/logs ${prq_data_path}/elasticsearch_data/config

cp ${image_home}/elasticsearch-analysis-ik-7.9.0.zip  ${prq_data_path}/elasticsearch_data/plugins/ik

cd ${prq_data_path}/elasticsearch_data/plugins/ik

unzip elasticsearch-analysis-ik-7.9.0.zip
cd ${path}
mkdir -vp ${prq_data_path}/libreoffice_data/
chmod -R 777 ${prq_data_path}/libreoffice_data




echo ">>> copy config file to destination location start <<<"


cp conf/loolwsd.xml ${prq_data_path}/libreoffice_data/

echo ">>> config file copy finished <<<"

echo "grant permisssion ..."
chmod 777 -R ${prq_data_path}

sysctl vm.overcommit_memory=1

echo "=============Starting containers...========== "

echo "=============creating other containers ...==================="

docker-compose -f compose-prq-es.yml up -d

可以看到,我们需要用到的目录为:

config:配置文件

data:数据存储的目录

plugins:插件的目录,目前我们放入IK的分词插件,需要将elasticsearch-analysis-ik-7.9.0.zip在plugins/ik目录下解压

测试   显示如下页面则成功了,安装的ip:port

docker-compose 安装es,docker,elasticsearch,容器

docker-compose 安装es,docker,elasticsearch,容器

ik安装成功

docker-compose 安装es,docker,elasticsearch,容器

docker-compose 安装es,docker,elasticsearch,容器

或者用postman测试ik是否安装成功

docker-compose 安装es,docker,elasticsearch,容器

docker-compose 安装es,docker,elasticsearch,容器

两个postman不同点是多了分词器analyzer,不加分词器,默认是standand,即一个字一个字解析。


ik分词器模式介绍
1. 细粒度分词模式(ik_smart):
这是默认的分词模式,它会尽可能地将句子切分为最小的词语单元。它不仅可以识别普通词汇,还可以识别一些常见的专有名词、地名、人名等。

2. 智能分词模式(ik_max_word):
这种模式会在细粒度分词的基础上,对长词进行进一步的切分。它可以识别更多的词语,但也会增加一些不必要的词语。文章来源地址https://www.toymoban.com/news/detail-855327.html

到了这里,关于docker-compse安装es(包括IK分词器扩展)、kibana、libreoffice的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • docker中安装es服务,安装ik分词器,启动kibana

    docker中安装es服务,安装ik分词器,启动kibana

    docker中安装es服务 1、去docker hub 查找镜像 2、运行es 注意:es启动如果没有指明单机方式运行,默认使用集群方式启动,如果使用集群方式自动在启动时会出现如下错误,宿主机虚拟内存不够 max virtual memory areas vm.max map count [65530] is too low, increase to at least [262144] 解决方案: 在

    2024年02月05日
    浏览(7)
  • docker-compose安装es以及ik分词同义词插件

    docker-compose安装es以及ik分词同义词插件

    目录 1 前言 2 集成利器Docker 2.1 Docker环境安装 2.1.1 环境检查 2.1.2 在线安装 2.1.3 离线安装 2.2 Docker-Compose的安装 2.2.1 概念简介 2.2.2 安装步骤 2.2.2.1 二进制文件安装 2.2.2.2 离线安装 2.2.2.3 yum安装 3 一键安装ES及Kibana 3.1 yml文件的编写 3.1.1 elasticsearch.yml配置 3.1.2 kibana.yml配置 3.2 一键

    2024年04月23日
    浏览(10)
  • Docker安装ElasticSearch、Kibana、IK分词器以及设置ES账户密码

    Docker安装ElasticSearch、Kibana、IK分词器以及设置ES账户密码

    版本声明: 系统 :CentOS 7.9(云服务器) ES版本 :7.6.1 Kibana :7.6.1 Ik分析器版本 :7.6.1 1、拉取镜像 2、创建挂载目录 设置所有用户读写执行权限 : sudo chmod -R 777 /docker_config/elasticsearch/ 3、创建elasticsearch.yml 配置文件 4、创建容器 参数说明 : -p 端口映射 -e discovery.type=single

    2023年04月09日
    浏览(13)
  • 安装elasticsearch、kibana、IK分词器、扩展IK词典

    安装elasticsearch、kibana、IK分词器、扩展IK词典

    后面还会安装 kibana ,这个会提供可视化界面方面学习。 需要注意的是 elasticsearch 和 kibana 版本一定要一样!!! 否则就像这样 1、创建网络 因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 2、镜像安装 pull 安装 因为镜像文件比较大,将

    2024年02月02日
    浏览(19)
  • es安装ik分词器

    es安装ik分词器

    IK分词器下载地址: https://github.com/medcl/elasticsearch-analysis-ik/releases 下载ES版本对应的分词器即可 安装ik分词器 将下载好的zip包解压,生成一个ik文件夹 将ik文件夹移动到ES安装目录下的 plugins 文件夹下(每台ES节点都要执行相同的操作) 重启ES集群 自定义分词库 用 vim 在ik中的

    2023年04月10日
    浏览(7)
  • ES基础篇 Docker部署的ES中安装IK分词器

    之前写了Docker部署Elasticsearch和Kinbana,但Elasticsearch毕竟是国外的,对分词方面明显跟不上我们的需求,所以在很多时候,我们都会安装分词器插件,如IK分词器、JieBa分词器等,这篇就是经过自己实践安装的IK分词器 准备 IK 分词器的安装文件,可以从官方 GitHub 仓库或者 Mave

    2024年02月16日
    浏览(4)
  • es安装中文分词器 IK

    es安装中文分词器 IK

    1.下载 https://github.com/medcl/elasticsearch-analysis-ik 这个是官方的下载地址,下载跟自己es版本对应的即可 那么需要下载 7.12.0版本的分词器 2.安装 1.在es的 plugins 的文件夹下先创建一个ik目录 bash cd /home/apps/elasticsearch/plugins/ mkdir ik 2.然后将下载解压后的文件放入到ik文件夹下 3.重启

    2024年02月21日
    浏览(7)
  • ES(二)| 安装ES、Kibana、IK分词器、拼音分词器(自动补全)

    ES(二)| 安装ES、Kibana、IK分词器、拼音分词器(自动补全)

    上一篇:ES(一)| ES简介、倒排索引、索引库操作语法、文档操作语法、Java使用RestClient进行ES操作 安装包下载: 链接:https://pan.baidu.com/s/1Y1O0B8aG7qzRLFFVYo9nHw 提取码:hdyc 因为我们还需要部署 kibana 容器,因此需要让 es 和 kibana 容器互联。这里先创建一个网络: 这里我采用

    2023年04月08日
    浏览(8)
  • [ES]mac安装es、kibana、ik分词器

    [ES]mac安装es、kibana、ik分词器

    1、创建一个网络,网络内的框架(es+kibana)互联 2、下载es和kibana 3、运行docker命令部署单点es+kibana(用来操作es) 说明 4、访问 5、查看日志 访问http://localhost:5601/ 点击这个,在里面写就行了 ​ 可选的有standard、english、chinese但是他们的中文都是一个字分一个词 下载这个 https:

    2024年02月11日
    浏览(7)
  • Elasticsearch07:ES中文分词插件(es-ik)安装部署

    Elasticsearch07:ES中文分词插件(es-ik)安装部署

    在中文数据检索场景中,为了提供更好的检索效果,需要在ES中集成中文分词器,因为ES默认是按照英文的分词规则进行分词的,基本上可以认为是单字分词,对中文分词效果不理想。 ES之前是没有提供中文分词器的,现在官方也提供了一些,但是在中文分词领域,IK分词器是

    2024年02月03日
    浏览(7)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包