Hadoop HDFS 操作
最初你必须格式化配置的 HDFS 文件系统,打开 namenode(HDFS 服务器),然后执行以下命令。
$ hadoop namenode -format
格式化HDFS后,启动分布式文件系统。以下命令将启动名称节点以及数据节点作为集群。
$ start-dfs.sh
列出 HDFS 中的文件
加载服务器中的信息后,我们可以找到目录中的文件列表,文件的状态,使用 ‘ls’ .下面给出的语法是 ls 你可以将其作为参数传递给目录或文件名。
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
将数据插入 HDFS
假设我们在本地系统中名为 file.txt 的文件中有数据,该文件应该保存在 hdfs 文件系统中。按照下面给出的步骤在 Hadoop 文件系统中插入所需的文件。
步骤 1
你必须创建一个输入目录。
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
步骤 2
使用 put 命令将数据文件从本地系统传输并存储到 Hadoop 文件系统。
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
步骤 3
你可以使用 ls 命令验证文件。
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
从 HDFS 检索数据
假设我们在 HDFS 中有一个名为 outfile .下面给出了从 Hadoop 文件系统中检索所需文件的简单演示。
步骤 1
最初,使用查看 HDFS 中的数据 cat command.
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
步骤 2
使用从 HDFS 获取文件到本地文件系统 get command.
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
关闭 HDFS
你可以使用以下命令关闭 HDFS。
$ stop-dfs.sh