【大数据实验一 】熟悉常用的Linux操作和Hadoop操作

本次实验旨在熟悉Linux与Hadoop的基础操作,包括Linux的cd、ls、mkdir等常用命令以及Hadoop的启动、文件管理等。通过在Ubuntu18.04系统上操作Hadoop 3.1.3,学习了文件的创建、移动、删除、查找以及环境变量配置等。同时,还涉及到HDFS的文件上传、下载及管理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大数据实验一 熟悉常用的Linux操作和Hadoop操作

1.实验目的
Hadoop运行在Linux系统上,因此,需要学习实践一些常用的Linux命令。本实验旨在熟悉常用的Linux操作和Hadoop操作,为顺利开展后续其他实验奠定基础。

2.实验平台
(1)操作系统:Linux(Ubuntu18.04);
(2)Hadoop版本:3.1.3。

3.实验步骤

1.熟悉常用的Linux操作
1)cd命令:切换目录
(1)切换到目录“/usr/local”
(2)切换到当前目录的上一级目录
(3)切换到当前登录Linux系统的用户的自己的主文件夹
在这里插入图片描述

2)ls命令:查看文件与目录
查看目录“/usr”下的所有文件和目录
在这里插入图片描述

3)mkdir命令:新建目录
(1)进入“/tmp”目录,创建一个名为“a”的目录,并查看“/tmp”目录下已经存在哪些目录
(2)进入“/tmp”目录,创建目录“a1/a2/a3/a4”
在这里插入图片描述

4)rmdir命令:删除空的目录
(1)将上面创建的目录a(在“/tmp”目录下面)删除
(2)删除上面创建的目录“a1/a2/a3/a4” (在“/tmp”目录下面),然后查看“/tmp”目录下面存在哪些目录
在这里插入图片描述

5)cp命令:复制文件或目录
(1)将当前用户的主文件夹下的文件.bashrc复制到目录“/usr”下,并重命名为bashrc1
(2)在目录“/tmp”下新建目录test,再把这个目录复制到“/usr”目录下
在这里插入图片描述

6)mv命令:移动文件与目录,或更名
(1)将“/usr”目录下的文件bashrc1移动到“/usr/test”目录下
(2)将“/usr”目录下的test目录重命名为test2
在这里插入图片描述

7)rm命令:移除文件或目录
(1)将“/usr/test2”目录下的bashrc1文件删除
(2)将“/usr”目录下的test2目录删除
在这里插入图片描述

8)cat命令:查看文件内容
查看当前用户主文件夹下的.bashrc文件内容
在这里插入图片描述

9)tac命令:反向查看文件内容
反向查看当前用户主文件夹下的.bashrc文件的内容
在这里插入图片描述

10)more命令:一页一页翻动查看
翻页查看当前用户主文件夹下的.bashrc文件的内容
在这里插入图片描述

11)head命令:取出前面几行
(1)查看当前用户主文件夹下.bashrc文件内容前20行
(2)查看当前用户主文件夹下.bashrc文件内容,后面50行不显示,只显示前面几行
在这里插入图片描述

12)tail命令:取出后面几行
(1)查看当前用户主文件夹下.bashrc文件内容最后20行
(2)查看当前用户主文件夹下.bashrc文件内容,并且只列出50行以后的数据
在这里插入图片描述
在这里插入图片描述

13)touch命令:修改文件时间或创建新文件
(1)在“/tmp”目录下创建一个空文件hello,并查看文件时间
(2)修改hello文件,将文件时间整为5天前
在这里插入图片描述

14)chown命令:修改文件所有者权限
将hello文件所有者改为root帐号,并查看属性
在这里插入图片描述

15)find命令:文件查找
找出主文件夹下文件名为.bashrc的文件
在这里插入图片描述

16)tar命令:压缩命令
(1)在根目录“/”下新建文件夹test,然后在根目录“/”下打包成test.tar.gz
(2)把上面的test.tar.gz压缩包,解压缩到“/tmp”目录
在这里插入图片描述

17)grep命令:查找字符串
从“~/.bashrc”文件中查找字符串’examples’
在这里插入图片描述

18)配置环境变量
(1)请在“~/.bashrc”中设置,配置Java环境变量
(2)查看JAVA_HOME变量的值
在这里插入图片描述

2.熟悉常用的Hadoop操作
(1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop”
在这里插入图片描述

出现问题。
在这里插入图片描述

按照以上命令行解决问题。
(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表
在这里插入图片描述

(3) 将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test
在这里插入图片描述

(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下
在这里插入图片描述

4.实验出现的问题与解决
出现的问题:使用hadoop用户登录Linux系统,启动Hadoop时出现拒绝连接。
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):重启jsp。
在这里插入图片描述

### 常用Linux操作大数据实验中,掌握些常见的Linux操作是非常重要的。这些操作可以帮助用户更高效地管理文件、查看系统状态以及执行其他必要的任务。以下是几个常用Linux命令: - **文件目录操作**: `ls`, `cd`, `mkdir`, `rm` `cp` 是最基本的用于浏览修改文件系统的命令[^1]。 - **权限管理**: 使用 `chmod` 可以更改文件或目录的访问权限;`chown` 则用来改变文件的所有者。 - **文本处理工具**: 如 `cat`, `grep`, `awk`, `sed` 这些工具对于查找特定字符串或者编辑大量文本非常有用。 - **压缩解压**: 对于大容量的数据集来说,学会如何使用 `tar` 或 `gzip` 来打包压缩文件也是必不可少的项技能。 ```bash # 创建新目录并进入该目录 mkdir new_directory && cd $_ # 查找当前路径下包含关键词 'error' 的日志文件 find . -name "*.log" | xargs grep error ``` --- ### Hadoop基础命令 Hadoop提供了丰富的命令来管理监控集群中的数据存储与计算资源。下面列举了些最常使用的Hadoop命令: - **启动/停止服务节点**: 通过 `/hadoop/hadoop/sbin/hadoop-daemon.sh start|stop datanode` 控制DataNode的服务启停[^3]。 - **上传下载文件到HDFS**: 使用 `-put` 将本地文件复制至分布式文件系统上, 而 `-get` 执行相反的操作。 ```bash hadoop fs -put /local/path/to/file.txt /hdfs/target/directory/ ``` - **查询HDFS上的元信息**: 比如显示某个具体位置下的内容列表(`-ls`)或是统计整个目录大小(`du -s`)等功能均可以通过简单的CLI指令完成。 - **删除不需要的内容**: 当不再需要某些数据时可利用 `-rmr` (递归移除) 清理掉它们。 --- ### 实验心得总结 参与此次关于熟悉常用LinuxHadoop操作大数据分析课程后发现,在实际动手实践之前确实存在较多陌生领域需提前学习准备。例如刚开始接触各类Shell脚本编写技巧还有理解MapReduce工作流程等方面的知识点都需要额外花时间去深入研究才能更好地适应后续更加复杂的编程需求。 另外值得注意的点是在调试阶段经常会碰到各种各样意想不到的小错误但是只要耐心寻找原因几乎都能找到对应的解决方案这不仅锻炼了自己的问题排查能力同时也增强了面对困难的信心水平最后成功完成后也获得了极大的成就感[^2]. 尽管像Hive这样的技术虽然基于较慢的MapReduce框架但在适当场景下仍然具有其独特优势; 同样Kylin凭借预计算方式实现了快速响应特性从而吸引了越来越多用户的青睐显示出不同工具有着各自适用范围的重要性[^4]. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

almostspring

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值