在docker上部署kettle web版本

这篇具有很好参考价值的文章主要介绍了在docker上部署kettle web版本。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

前言

部署过程

kettle部署

开始汉化

安装vim

步骤一:清空sources.list

步骤二

步骤三:更新软件列表

步骤四

步骤五:安装vim

汉化配置


前言

因为最近要上数据预处理的网课,我的电脑上没有安装kettle,因为安装kettle需要的jdk版本和我电脑已经安装的版本不匹配,这时候一般就是两种方法,要么把已有的jdk删了重装,要么再下一个jdk,电脑里同时装两个jdk按理说是可行的,也可以找到教程,但是我怕装了之后影响我IDEA和Android的使用,所以两种方法对我来说都不太合适。然后我就在github上找到了with docker的kettle web安装。发现真的可行!!!我太兴奋了哈哈哈哈!!!

docker 部署kettle,数据采集与预处理,玩机技巧总结,vim,docker,大数据

部署过程

首先就是要有docker,可以随便找一个教程安装,docker的环境配置还挺简单的。

kettle部署

安装命令

docker run -d -p 8080:8080 hiromuhota/webspoon

docker 部署kettle,数据采集与预处理,玩机技巧总结,vim,docker,大数据

这样就是已经下好了

在浏览器中页面访问,其实现在就是可用的,只不过就是页面的英文的,接下来的步骤就是把页面转化成中文。

开始汉化

# 0ce9d1d28ad6 为容器id

docker exec -it -u 0 0ce9d1d28ad6 /bin/bash

# 进入 Tomcat 的 bin目录 可以看到有一个 setenv.sh 的Tomcat 环境变量配置脚本

root@0ce9d1d28ad6:/usr/local/tomcat# cd bin/
root@0ce9d1d28ad6:/usr/local/tomcat/bin# ls
bootstrap.jar       ciphers.sh                    configtest.sh  makebase.sh      shutdown.sh      tool-wrapper.sh
catalina-tasks.xml  commons-daemon-native.tar.gz  daemon.sh      setclasspath.sh  startup.sh       version.sh
catalina.sh         commons-daemon.jar            digest.sh      setenv.sh        tomcat-juli.ja

但此时使用vi / vim命令是无法打开文件的,因为我们没有安装vim

安装vim

步骤一:清空sources.list

# 清空/etc/apt/sources.list文件
 echo > /etc/apt/sources.list

步骤二

echo -e "deb http://mirrors.aliyun.com/debian/ stretch main non-free contrib \ndeb-src http://mirrors.aliyun.com/debian/ stretch main non-free contrib \ndeb http://mirrors.aliyun.com/debian-security stretch/updates main \ndeb-src http://mirrors.aliyun.com/debian-security stretch/updates main \ndeb http://mirrors.aliyun.com/debian/ stretch-updates main non-free contrib \ndeb-src http://mirrors.aliyun.com/debian/ stretch-updates main non-free contrib \ndeb http://mirrors.aliyun.com/debian/ stretch-backports main non-free contrib \ndeb-src http://mirrors.aliyun.com/debian/ stretch-backports main non-free contrib" > /etc/apt/sources.list

步骤三:更新软件列表

# 这个过程可能会有点慢 耐心等待
apt-get update

步骤四

apt-get install -y libtinfo5 --allow-remove-essential

步骤五:安装vim

apt-get install -y vim

再次编辑 setenv.sh

cd /usr/local/tomcat/bin
vim setenv.sh

汉化配置

在setenv.sh文件末尾追加这两项配置 保存

CATALINA_OPTS="-Dorg.apache.tomcat.util.buf.UDecoder.ALLOW_ENCODED_SLASH=true"
JAVA_OPTS="-Duser.language=zh -Duser.region=CN -Dfile.encoding=UTF-8"
# 查看是否编辑成功
cat setenv.sh
# 退出容器
exit;

# 查看容器
docker ps

# 重启容器
docker restart 0ce9d1d28ad6

浏览器网页打开所在主机IP的8080端口即可看到,汉化成功!

docker 部署kettle,数据采集与预处理,玩机技巧总结,vim,docker,大数据文章来源地址https://www.toymoban.com/news/detail-676716.html

到了这里,关于在docker上部署kettle web版本的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【数据采集与预处理】数据传输工具Sqoop

    目录 一、Sqoop简介 二、Sqoop原理 三、Sqoop安装配置 (一)下载Sqoop安装包并解压 (二)修改配置文件 (三)拷贝JDBC驱动 (四)验证Sqoop (五)测试Sqoop是否能够成功连接数据库 四、导入数据 (一)RDBMS到HDFS (二)RDBMS到HBase (三)RDBMS到Hive 五、导出数据 HDFS/Hive到RDBMS 六、

    2024年01月21日
    浏览(47)
  • 1.0数据采集与预处理概述

    大数据的来源: 1.搜索引擎数据 2.电商交易数据 3.社交网络数据 4.物联网传感器数据 5.网站日志数据 数据采集的概念: 数据采集的ETL 工具负责将分布的、异构数据源中的不同种类,和结构的数据如文本数据、关系数据以及图片、视频等非结构化数据等抽取到临时中间层后进

    2024年02月02日
    浏览(31)
  • YOLOv5训练自己的数据集(含数据采集、数据标注、数据预处理、借助colab训练)

    YOLOv5 github:GitHub - ultralytics/yolov5: YOLOv5 🚀 in PyTorch ONNX CoreML TFLite 先从github下载源码到本地,用pycharm打开工程   本次采集数据采用的方式是录取视频,然后用python截取视频帧当做图片,这是处理代码:   可以使用labelimg工具、make sense(Make Sense)在线标注,注意数据集需要与

    2024年02月05日
    浏览(72)
  • 一百零八、Kettle采集Kafka数据到HDFS(踩坑,亲测有效)

    Kafka到HDFS,除了用Kafka API和flume之外,还可以用kettle,最大优点是不用写代码! 版本:Kettle版本:8.2、Hadoop版本:3.1.3 前提:    详情请看鄙人的一百零一、Kettle8.2.0连接Hive3.1.2(踩坑,亲测有效) http://t.csdn.cn/mWfOC http://t.csdn.cn/mWfOC 前提一、Hadoop系列配置文件已复制到kettle路径

    2024年02月15日
    浏览(30)
  • WebSpoon9.0(KETTLE的WEB版本)编译 + tomcat/docker部署 + 远程调试教程

    Kettle简介 Kettle是一款国外开源的ETL工具,纯Java编写,可以在Window、Linux、Unix上运行,绿色无需安装,数据抽取高效稳定 WebSpoon是Kettle的Web版本,由Kettle社区维护,不受Pentaho支持,实现了Kettle的大部分功能 仓库地址: https://github.com/HiromuHota/pentaho-kettle 配置 maven 的环境变量

    2024年02月19日
    浏览(26)
  • yolov2检测网数据集获取与预处理_采集健康和非健康猫狗数据

    阿里云天池数据集-cat-dog 因为开源数据库中没有非健康猫狗相关的,所以需要自己下载非健康猫狗数据,并制作数据集。 下面是用于爬取非健康猫狗数据的爬虫代码: 使用图片去重/相似图片清理利器 软件清除重复的图片数据。 使用ffmpeg将救助视频文件按照一秒截取一张

    2024年02月14日
    浏览(62)
  • 一百八十二、大数据离线数仓完整流程——步骤一、用Kettle从Kafka、MySQL等数据源采集数据然后写入HDFS

    经过6个月的奋斗,项目的离线数仓部分终于可以上线了,因此整理一下离线数仓的整个流程,既是大家提供一个案例经验,也是对自己近半年的工作进行一个总结。 项目行业属于交通行业,因此数据具有很多交通行业的特征,比如转向比数据就是统计车辆左转、右转、直行

    2024年02月07日
    浏览(42)
  • 基于爬虫和Kettle的书籍信息采集与预处理

    将读书网上的书籍的基本信息,比如:封面、书名、作者、出版社、价格、出版时间、内容简介、作者简介、书籍目录、ISBN和标签爬取出来,并将爬取的结果放入数据库中,方便存储。     图1读书网书籍类别详情 此次实验爬取读书网页面中文学、小说、传记、青春文学、

    2024年01月21日
    浏览(38)
  • 基于爬虫和Kettle的豆瓣电影的采集与预处理

    将豆瓣电影网上的电影的基本信息,比如:电影名称、导演、电影类型、国家、上映年份、评分、评论人数爬取出来,并将爬取的结果放入csv文件中,方便存储。     图1豆瓣网网站结构详情 此次实验爬取豆瓣网中电影页面中的电影的基本信息。 每一个电影包括电影名称、

    2024年02月02日
    浏览(37)
  • kettle web 版本 (webspoon) 中文部署 kettle 页面编辑 kettleweb 中文

    github 地址 : https://github.com/HiromuHota/pentaho-kettle 安装命令 可以看到已经装好了 页面访问,可以看到现在是英文的 进入 webspoon 容器 执行命令1 执行命令2 执行命令3 执行命令4 执行命令5 再次编辑 setenv.sh 在文件末尾追加这两项配置 保存 重启成功再次访问地址 汉化成功

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包