记录如何将本地文件上传至HDFS中

前提是已经启动了hadoop成功(nodedate都成功启动)

①先切换到HDFS用户

②创建一个input文件夹

zhangsf@hadoop1:~$ hdfs dfs -mkdir /input

查看创建的文件夹在 hadoop1:50070中查看(我自己的对应的是:  http://192.168.5.130:50070)

c130ad13da6fd4e815a64a22b88cd905.png

③将本地文件上传到HDFS,前面为 服务器中的文件路径,后面为HDFS中路径

zhangsf@hadoop1:~$ hdfs dfs -put /home/zhangsf/aaa.txt /input

zhangsf@hadoop1:~$ hdfs dfs -ls /input

Found 1 items

-rw-r--r-- 2 zhangsf supergroup 89 2018-06-12 06:03 /input/aaa.txt

其中 aaa.txt 是本地文件

zhangsf@hadoop1:~$ ls

aaa.txt data hadoop hadoop2 opt package

zhangsf@hadoop1:~$ pwd

/home/zhangsf

查看自己上传成功了,也可以进入hadoop1:7077的

Browse Directory中查看

b271576755f626e06f6146a417752126.png

查看

c33e485dce16934e86902e9d2e2fe290.png

上传成功ok!

方法二: 使用moveFromLocal指令

zhangsf@hadoop1:~$ hadoop fs -moveFromLocal aaa.txt /data

4e41272cb3a1e32cbbe4e35fe2c00bb9.png

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐