云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告

这篇具有很好参考价值的文章主要介绍了云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

《云计算系统架构及应用》实验报告

题目:

熟悉常用的LINUX操作和hadoop部署相关操作

姓名

日期

实验环境:  操作系统:Linux

Hadoop版本:2.7.3

实验内容与完成情况:

(一)熟悉常用的Linux操作

请按要求上机实践如下linux基本命令。

cd命令:切换目录

(1)切换到目录 /usr/local

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(2)去到目前的上层目录

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(3)回到自己的主文件夹(/home/zkpk)

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

ls命令:查看文件与目录

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(4)查看目录/usr下所有的文件

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

mkdir命令:新建新目录

(5)进入/tmp目录,创建一个名为a的目录,并查看有多少目录存在

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(6)进入/tmp目录,创建目录a1/a2/a3/a4

rmdir命令:删除空的目录

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(7)将上例创建的目录a(/tmp下面)删除

(8)删除目录a1/a2/a3/a4

cp命令:复制文件或目录

9)将主文件夹下的.bashrc复制到/usr下,命名为bashrc1

10)在/tmp下新建目录test,再复制这个目录内容到/usr

mv命令:移动文件与目录,或更名

11)将上例文件bashrc1移动到目录/usr/test

12)将上例test目录重命名为test2

rm命令:移除文件或目录

13)将上例复制的bashrc1文件删除

14)将上例的test2目录删除

cat命令:查看文件内容

(15)查看主文件夹下的.bashrc文件内容

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(16)配置Java环境变量,在~/.bashrc中设置

(1)用文本编辑器打开用户目录下的.bashrc文件

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

 云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(2)在.bashrc文件末尾加入:  

set JAVA_HOME=/usr/share/jdk1.5.0_05

export JAVA_HOME

set PATH=$JAVA_HOME/bin:$PATH

export PATH

set CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export CLASSPATH

 云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

(3)重新登录

(17)查看JAVA_HOME变量的值

(二)熟悉Hadoop部署时的相关操作

(1)请写出Hadoop部署时,可能会用到的配置文件,及所在路径。每个配置文件可能配置的属性有什么,及属性用途。

用到的配置文件:core-site.xmlhdfs-site.xml

路径:Hadoop 的配置文件位于 /home/zkpk/hadoop-2.7.3/etc/hadoop/ 

配置属性:name 和 value

hadoop.tmp.dir 持久化配置防止断电时丢失

fs.defaultFS 修改端口号

dfs.replication 设置备份系数

dfs.namenode.name.dir作用是存放hadoop的名称节点namenode里的metadata

dfs.datanode.data.dir 是存放HDFS文件系统数据文件的目录,作用是存放hadoop的数据节点datanode里的多个数据块

(2)Hadoop部署为伪分布式模式后,若想改为单机模式,如何设置。

   删除 core-site.xml 中的配置项

(3)Hadoop部署为伪分布式模式,没有配置yarn,是否会出错,若不出错,部署成功后,如何启动。

伪分布式不启动YARN也可以,一般不会影响程序执行Ok qidong hdfs

1.格式化:hdfs namenode -format

2.启动hadoop

  Start-dfs.sh

  Start-yarn.sh

  

(4)Hadoop部署为伪分布式模式后,在此基础上,如何设置,就为分布式模式。

修改从节点文件 slaves

修改/home/zkpk/hadoop-2.7.3/etc/hadoop/中的5个配置文件,

1.slaves

将文件中原来的 localhost 删除,只添加一行内容:Slave1

2.core-site.xml

  1.                 <name>fs.defaultFS</name>
  2.                 <value>hdfs://Master:9000</value>
  3.                 <name>fs.defaultFS</name>
  4.                 <value>hdfs://Master:9000</value>

3.hdfs-site.xml

Dfs.replication 设为1(一般是3)

4.mapred-site.xml

  1.                 <name>mapreduce.framework.name</name>
  2.                 <value>yarn</value>

5.yarn-site.xml 

  1.                 <name>yarn.resourcemanager.hostname</name>
  2.                 <value>Master</value>
  3.                 <name>yarn.nodemanager.aux-services</name>
  4.                 <value>mapreduce_shuffle</value>

(5)在本机Hadoop实验环境下,修改主节点和从节点名称,主节点名称为你的姓(拼音),从节点的名称为你的名(拼音),主机名修改后,还要修改哪些设置内容,本机Hadoop实验环境才会正常运行。

1.以root身份修改/etc/hostname 的名字

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

2.重启

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

3.修改映射 vi/etc/hosts云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

4.修改配置文件

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

5.重启

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

6.启动hadoop

Start-dfs.sh

Start-yarn.sh

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

7.修改从节点配置文件

云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告,课程笔记,linux,hadoop,云计算

出现的问题:1.修改文件内容时没有权限,对于普通用户只是可读文件,要以root身份进入后修改文件

2.修改后要重启

 3.配置文件不但要修改主节点的配置文件,还要修改从节点的配置文件

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):文章来源地址https://www.toymoban.com/news/detail-744907.html

    1. 改名字时一头雾水,不知道改怎么办,经过大量的网络资料查找和向老师咨询相关知识。理清了思路,再和同学讨论后找到了最终正确的解决方案。
    2. 整理修改名字的思路时,先修改名字文件,然后修改映射,重启后修改主节点和从节点的配置文件,然后重启,启动hadoop 即可完成修改。

到了这里,关于云计算 熟悉常用的LINUX操作和hadoop部署相关操作 实验报告的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云计算技术 实验三 安装Hadoop系统并熟悉hadoop命令

    参考资料为: 教材代码-林子雨编著《大数据基础编程、实验和案例教程(第2版)》教材所有章节代码_厦大数据库实验室博客 1 . 实验学时 4学时 2 . 实验目的 熟悉Hadoop系统的安装 掌握Hadoop系统的两种安装方式 掌握Hadoop系统的基本命令 3 . 实验内容 安装虚拟机和Linux环境。

    2024年02月07日
    浏览(32)
  • 实验三:熟悉常用的HBase操作

    完整原版实验报告word文件:实验三:熟悉常用的HBase操作 ————————————————————————————————— \\\"大数据技术原理与应用\\\"课程实验报告 题目:实验三:熟悉常用的HBase操作 姓名:朱小凡 日期:2022/3/29 1、实验环境: 设备名称 LAPTOP-9KJS8HO

    2023年04月08日
    浏览(50)
  • 实验2熟悉常用的HDFS操作

    (1)理解HDFS在Hadoop体系结构中的角色; (2)熟练使用HDFS操作常用的Shell命令; (3)熟悉HDFS操作常用的Java API。 (1)操作系统:Linux; (2)Hadoop版本:2.7.4 ; (3)JDK版本1.8; (4)Java IDE:eclipse  。 (一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:

    2023年04月18日
    浏览(31)
  • 实验03熟悉常用的HBase操作

    🌊 Hbase相关配置参考网址: 😈http://dblab.xmu.edu.cn/blog/install-hbase/ 1️⃣ 理解HBase在Hadoop体系结构中的角色; 2️⃣ 熟练使用HBase操作常用的Shell命令; 3️⃣ 熟悉HBase操作常用的Java API; 操作系统:Linux 虚拟机 :ubuntu Hadoop版本:2.7.1 HBase版本:1.1.2 JDK版本:1.8版本 Java IDE:ID

    2023年04月12日
    浏览(65)
  • 大数据实验 实验二:熟悉HDFS常用操作

    附件中有word版本的实验报告 理解HDFS在Hadoop体系结构中的角色。 熟练使用HDFS操作常用的Shell命令。 熟悉HDFS操作常用的Java API。 Oracle VM VirtualBox虚拟机 系统版本centos7 JDK1.8版本 Hadoop-3.1.3 Windows11 Java IDE:IDEA 1.向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户

    2024年04月12日
    浏览(27)
  • 大数据实验 实验三:熟悉常用的HBase操作

    (1)理解HBase在Hadoop体系结构中的角色; (2)熟练使用HBase操作常用的Shell命令; (3)熟悉HBase操作常用的Java API。 操作系统:centos7; Hadoop版本:3.3; HBase版本:2.2.2; JDK版本:1.8; Java IDE:IDEA。 (1) 列出HBase所有的表的相关信息,例如表名、创建时间等; (2) 在终端

    2024年02月04日
    浏览(34)
  • 大数据编程实验二:熟悉常用的HDFS操作

    实验目的 1、理解HDFS在Hadoop体系结构中的角色 2、熟悉使用HDFS操作常用的Shell命令 3、熟悉HDFS操作常用的Java API 实验平台 1、操作系统:Windows 2、Hadoop版本:3.1.3 3、JDK版本:1.8 4、Java IDE:IDEA 前期:一定要先启动hadoop   1、编程实现以下功能,并利用Hadoop提供的Shell命令完成相

    2024年02月08日
    浏览(32)
  • 大数据 | 实验一:大数据系统基本实验 | 熟悉常用的HDFS操作

    1 )理解 HDFS 在 Hadoop 体系结构中的角色。 2 )熟练使用 HDFS 操作常用的 shell 命令。 3 )熟悉 HDFS 操作常用的 Java API。 1 )操作系统:Linux; 2 )Hadoop 版本:3.2.2; 3 )JDK 版本:1.8; 4 )Java IDE:Eclipse。 编程实现 以下功能,并利用 Hadoop 提供的 Shell 命令 完成相同任务 1)向

    2024年02月02日
    浏览(33)
  • HBase的编程实践(实验3_熟悉常用的HBase操作)

    一、Hbase中使用Shell命令: ① HBase中创建表:(create 命令:第一个变量是表名,然后是列族名) 语法:create \\\'表名称\\\',\\\'列族名称1\\\',\\\'列族名称2\\\',\\\'列族名称N\\\' 通过命令 describe \\\'student\\\'  进行查看表的结构: (desc ‘表名’,查看表的结构) ✿ 增加数据 ② put: (put 命令:第一

    2024年02月01日
    浏览(32)
  • 大数据技术原理及应用课实验2 :熟悉常用的HDFS操作

    实验2  熟悉常用的HDFS操作 目录 实验2  熟悉常用的HDFS操作 一、实验目的 二、实验平台 三、实验步骤(每个步骤下均需有运行截图) (一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务: (1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则

    2024年04月14日
    浏览(86)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包