Como copiar arquivos do HDFS para o sistema de arquivos local. Não há localização física de um arquivo no arquivo, nem mesmo o diretório. Como posso movê-los para o meu local para mais validações. Sou experimentado através do winscp.
135
No Hadoop 2.0,
Onde,
hdfs_input_file_path
talvez obtido dehttp://<<name_node_ip>>:50070/explorer.html
output_path
é o caminho local do arquivo, para o qual o arquivo deve ser copiado.você também pode usar
get
no lugar decopyToLocal
.fonte
Para copiar arquivos do HDFS para o sistema de arquivos local, o seguinte comando pode ser executado:
hadoop dfs -copyToLocal <input> <output>
<input>
: o caminho do diretório HDFS (por exemplo, / mydata) que você deseja copiar<output>
: o caminho do diretório de destino (por exemplo, ~ / Documents)fonte
hadoop fs -ls
?você pode realizar de ambas as formas.
Ex:
Meus arquivos estão localizados em /sourcedata/mydata.txt . Quero copiar o arquivo para o sistema de arquivos local neste caminho / user / ravi / mydata
fonte
Se o seu "arquivo" de origem estiver dividido em vários arquivos (talvez como resultado da redução de mapa) que residem na mesma árvore de diretórios, você poderá copiá-lo para um arquivo local com:
fonte
Isso funcionou para mim na minha instância de VM do Ubuntu.
hdfs dfs -copyToLocal [diretório hadoop] [diretório local]
fonte
se você estiver usando a janela de encaixe, execute as seguintes etapas:
copie o arquivo de hdfs para namenode (hadoop fs -get output / parte-r-00000 / out_text). "/ out_text" será armazenado no namenode.
copie o arquivo do namenode para o disco local (docker cp namenode: / out_text output.txt)
output.txt estará lá no seu diretório de trabalho atual
fonte
fonte