记录如何将本地文件上传至HDFS中

前提是已经启动了hadoop成功(nodedate都成功启动)

①先切换到HDFS用户

②创建一个input文件夹

zhangsf@hadoop1:~$ hdfs dfs -mkdir /input

查看创建的文件夹在 hadoop1:50070中查看(我自己的对应的是:  http://192.168.5.130:50070)

c130ad13da6fd4e815a64a22b88cd905.png

③将本地文件上传到HDFS,前面为 服务器中的文件路径,后面为HDFS中路径

zhangsf@hadoop1:~$ hdfs dfs -put /home/zhangsf/aaa.txt /input

zhangsf@hadoop1:~$ hdfs dfs -ls /input

Found 1 items

-rw-r--r-- 2 zhangsf supergroup 89 2018-06-12 06:03 /input/aaa.txt

其中 aaa.txt 是本地文件

zhangsf@hadoop1:~$ ls

aaa.txt data hadoop hadoop2 opt package

zhangsf@hadoop1:~$ pwd

/home/zhangsf

查看自己上传成功了,也可以进入hadoop1:7077的

Browse Directory中查看

b271576755f626e06f6146a417752126.png

查看

c33e485dce16934e86902e9d2e2fe290.png

上传成功ok!

方法二: 使用moveFromLocal指令

zhangsf@hadoop1:~$ hadoop fs -moveFromLocal aaa.txt /data

4e41272cb3a1e32cbbe4e35fe2c00bb9.png

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐