node.js: lê um arquivo de texto em uma matriz. (Cada linha é um item na matriz.)

163

Gostaria de ler um arquivo muito, muito grande em uma matriz JavaScript no node.js.

Portanto, se o arquivo for assim:

first line
two 
three
...
...

Eu teria a matriz:

['first line','two','three', ... , ... ] 

A função ficaria assim:

var array = load(filename); 

Portanto, a idéia de carregar tudo como uma string e depois dividi-la não é aceitável.

chacko
fonte
Esta pergunta precisa de algumas edições e limpeza sérias. Diz ler um arquivo de texto em uma matriz , mas quando você lê todas as respostas e comentários, realmente significa ler um arquivo de texto uma linha de cada vez . Para essa pergunta, o @zswang tem a melhor resposta até agora.
Jess
Sim, basta ler esse arquivo e enviar cada linha para uma matriz: stackoverflow.com/a/34033928/1536309
Blair Anderson

Respostas:

89

Se você pode ajustar os dados finais em uma matriz, também não poderá ajustá-los em uma string e dividi-los, como foi sugerido? De qualquer forma, se você deseja processar o arquivo uma linha de cada vez, também pode tentar algo como isto:

var fs = require('fs');

function readLines(input, func) {
  var remaining = '';

  input.on('data', function(data) {
    remaining += data;
    var index = remaining.indexOf('\n');
    while (index > -1) {
      var line = remaining.substring(0, index);
      remaining = remaining.substring(index + 1);
      func(line);
      index = remaining.indexOf('\n');
    }
  });

  input.on('end', function() {
    if (remaining.length > 0) {
      func(remaining);
    }
  });
}

function func(data) {
  console.log('Line: ' + data);
}

var input = fs.createReadStream('lines.txt');
readLines(input, func);

EDIT: (em resposta ao comentário de phopkins ) Acho que (pelo menos nas versões mais recentes) a substring não copia dados, mas cria um objeto SlicedString especial (a partir de uma rápida olhada no código-fonte da v8). De qualquer forma, aqui está uma modificação que evita a substring mencionada (testada em um arquivo de vários megabytes no valor de "Todo o trabalho e nenhuma diversão faz de Jack um garoto chato"):

function readLines(input, func) {
  var remaining = '';

  input.on('data', function(data) {
    remaining += data;
    var index = remaining.indexOf('\n');
    var last  = 0;
    while (index > -1) {
      var line = remaining.substring(last, index);
      last = index + 1;
      func(line);
      index = remaining.indexOf('\n', last);
    }

    remaining = remaining.substring(last);
  });

  input.on('end', function() {
    if (remaining.length > 0) {
      func(remaining);
    }
  });
}
mtomis
fonte
Obrigado. para responder sua pergunta: não, a string seria muito grande.
22411 chacko
7
Eu tentei isso em arquivos de cerca de 2 MB ou mais e foi dolorosamente lento, muito mais lento do que ler os arquivos de forma síncrona em uma string. Eu acho que o problema é a linha restante = restante. Os "dados" do nó podem fornecer muito de cada vez, e fazer essa cópia para cada linha rapidamente se torna O (n ^ 2).
Fiona Hopkins
@ Resposta de Finbar é muito melhor
ru-
442

Síncrono:

var fs = require('fs');
var array = fs.readFileSync('file.txt').toString().split("\n");
for(i in array) {
    console.log(array[i]);
}

Assíncrono:

var fs = require('fs');
fs.readFile('file.txt', function(err, data) {
    if(err) throw err;
    var array = data.toString().split("\n");
    for(i in array) {
        console.log(array[i]);
    }
});
Finbarr
fonte
11
obrigado. Infelizmente eu tive que editar minha pergunta. Quero dizer como ler um arquivo massivamente grande. Ler tudo isso em uma string não é aceitável.
28411 chacko
1
Apenas o que eu precisava. Simples e rápido.
Hcabnettek
16
Descobri fazendo isso em um arquivo criado pelo Windows, tive que dividir \ r \ n, mas isso quebrou os Macs; então um mais robusto; _array = string.replace (/ \ r \ n / g, '\ n'). split ('\ n'); trabalhou para ambos
Will Hancock
6
+1 Há algum problema no Stackoverflow. Agora, muitas vezes encontro respostas altamente votadas depois de rolar muito para baixo. Este também é um exemplo disso. A votação é mais alta, mas posicionada na parte inferior da página, por último. Eu acho que o Stackoverflow precisa melhorar seu algoritmo de pedidos.
Shashwat 25/05
1
@shashwat A pessoa que faz a pergunta decide qual é a resposta certa. Nesse caso, eles precisavam de uma solução de streaming para arquivos grandes e colocar o arquivo inteiro em uma string é inaceitável. Nada de errado com SO, realmente.
legalize
73

Usando o Node.js módulo readline .

var fs = require('fs');
var readline = require('readline');

var filename = process.argv[2];
readline.createInterface({
    input: fs.createReadStream(filename),
    terminal: false
}).on('line', function(line) {
   console.log('Line: ' + line);
});
zswang
fonte
1
Infelizmente, há um problema com esta solução: você não recebe a última linha se o arquivo não tiver um \nno final! Veja: stackoverflow.com/questions/18450197/…
Yves M.
8
O nó corrigiu esse problema com o \ n stackoverflow.com/a/32599033/3763850
Gemtastic
14

js:

var array = fs.readFileSync('file.txt', 'utf8').split('\n');

ts:

var array = fs.readFileSync('file.txt', 'utf8').toString().split('\n');
hojin
fonte
1
Para impedir o lançamento acima TypeError: fs.readFileSync(...).split is not a function, você deve usar .toString () assim:var array = fs.readFileSync('file.txt', 'utf8').toString().split('\n');
Qua285
11

use readline ( documentação ). aqui está um exemplo de leitura de um arquivo css, analisando ícones e gravando-os no json

var results = [];
  var rl = require('readline').createInterface({
    input: require('fs').createReadStream('./assets/stylesheets/_icons.scss')
  });


  // for every new line, if it matches the regex, add it to an array
  // this is ugly regex :)
  rl.on('line', function (line) {
    var re = /\.icon-icon.*:/;
    var match;
    if ((match = re.exec(line)) !== null) {
      results.push(match[0].replace(".",'').replace(":",''));
    }
  });


  // readline emits a close event when the file is read.
  rl.on('close', function(){
    var outputFilename = './icons.json';
    fs.writeFile(outputFilename, JSON.stringify(results, null, 2), function(err) {
        if(err) {
          console.log(err);
        } else {
          console.log("JSON saved to " + outputFilename);
        }
    });
  });
Blair Anderson
fonte
6

file.linescom pacote JFile

Pseudo

var JFile=require('jfile');

var myF=new JFile("./data.txt");
myF.lines // ["first line","second line"] ....

Não se esqueça antes:

npm install jfile --save
Abdennour TOUMI
fonte
5

Com um BufferedReader , mas a função deve ser assíncrona:

var load = function (file, cb){
    var lines = [];
    new BufferedReader (file, { encoding: "utf8" })
        .on ("error", function (error){
            cb (error, null);
        })
        .on ("line", function (line){
            lines.push (line);
        })
        .on ("end", function (){
            cb (null, lines);
        })
        .read ();
};

load ("file", function (error, lines){
    if (error) return console.log (error);
    console.log (lines);
});
Gabriel Llamas
fonte
4

Eu só quero adicionar @finbarr ótima resposta, uma pequena correção no exemplo assíncrono:

Assíncrono:

var fs = require('fs');
fs.readFile('file.txt', function(err, data) {
    if(err) throw err;
    var array = data.toString().split("\n");
    for(i in array) {
        console.log(array[i]);
    }
    done();
});

@ MadPhysicist, done () é o que libera o assíncrono. ligar.

HernanFila
fonte
3

Esta é uma variação da resposta acima feita por @mtomis.

Ele cria um fluxo de linhas. Emite eventos 'data' e 'end', permitindo que você lide com o final do fluxo.

var events = require('events');

var LineStream = function (input) {
    var remaining = '';

    input.on('data', function (data) {
        remaining += data;
        var index = remaining.indexOf('\n');
        var last = 0;
        while (index > -1) {
            var line = remaining.substring(last, index);
            last = index + 1;
            this.emit('data', line);
            index = remaining.indexOf('\n', last);
        }
        remaining = remaining.substring(last);
    }.bind(this));

    input.on('end', function() {
        if (remaining.length > 0) {
            this.emit('data', remaining);
        }
        this.emit('end');
    }.bind(this));
}

LineStream.prototype = new events.EventEmitter;

Use-o como um invólucro:

var lineInput = new LineStream(input);

lineInput.on('data', function (line) {
    // handle line
});

lineInput.on('end', function() {
    // wrap it up
});
oferei
fonte
1
Você terminará com eventos compartilhados entre instâncias. var EventEmitter = require('events').EventEmitter; var util = require('util'); function GoodEmitter() { EventEmitter.call(this); } util.inherits(GoodEmitter, EventEmitter);
CTAPbIu_MABP 25/05
De que instâncias você está falando exatamente?
oferei
1
tente criar var li1 = new LineStream(input1), li2 = new LineStream(input2);e conte quantas vezes o 'final' é disparado para cada um
CTAPbIu_MABP
tentei. 'end' foi acionado uma vez para cada instância. var fs = require('fs'); var input1 = fs.createReadStream('text.txt'); var ls1 = new LineStream(input1); ls1.on('data', function (line) { console.log('1:line=' + line); }); ls1.on('end', function (line) { console.log('1:fin'); }); var input2 = fs.createReadStream('text.txt'); var ls2 = new LineStream(input2); ls2.on('data', function (line) { console.log('2:line=' + line); }); ls2.on('end', function (line) { console.log('2:fin'); }); saída: cada linha no arquivo de texto foi acionada uma vez para cada instância. então foi 'fim'.
oferei
2

Eu tive o mesmo problema e resolvi-o com o módulo linha por linha

https://www.npmjs.com/package/line-by-line

Pelo menos para mim funciona como um encanto, tanto no modo síncrono quanto assíncrono.

Além disso, o problema com as linhas terminando e não terminando \ n pode ser resolvido com a opção:

{ encoding: 'utf8', skipEmptyLines: false }

Processamento síncrono de linhas:

var LineByLineReader = require('line-by-line'),
    lr = new LineByLineReader('big_file.txt');

lr.on('error', function (err) {
    // 'err' contains error object
});

lr.on('line', function (line) {
    // 'line' contains the current line without the trailing newline character.
});

lr.on('end', function () {
    // All lines are read, file is closed now.
}); 
Antoni
fonte
2

O uso do Node.js v8 ou posterior possui um novo recurso que converte a função normal em uma função assíncrona.

util.promisify

É um recurso incrível. Aqui está o exemplo de análise de 10000 números do arquivo txt em uma matriz, contando inversões usando a classificação de mesclagem nos números.

// read from txt file
const util = require('util');
const fs = require('fs')
fs.readFileAsync = util.promisify(fs.readFile);
let result = []

const parseTxt = async (csvFile) => {
  let fields, obj
  const data = await fs.readFileAsync(csvFile)
  const str = data.toString()
  const lines = str.split('\r\n')
  // const lines = str
  console.log("lines", lines)
  // console.log("str", str)

  lines.map(line => {
    if(!line) {return null}
    result.push(Number(line))
  })
  console.log("result",result)
  return result
}
parseTxt('./count-inversion.txt').then(() => {
  console.log(mergeSort({arr: result, count: 0}))
})
Seunghun Sunmoon Lee
fonte
1

Para ler um arquivo grande na matriz, você pode ler linha por linha ou pedaço por pedaço.

linha por linha, consulte a minha resposta aqui

var fs = require('fs'),
    es = require('event-stream'),

var lines = [];

var s = fs.createReadStream('filepath')
    .pipe(es.split())
    .pipe(es.mapSync(function(line) {
        //pause the readstream
        s.pause();
        lines.push(line);
        s.resume();
    })
    .on('error', function(err) {
        console.log('Error:', err);
    })
    .on('end', function() {
        console.log('Finish reading.');
        console.log(lines);
    })
);

pedaço por pedaço consulte este artigo

var offset = 0;
var chunkSize = 2048;
var chunkBuffer = new Buffer(chunkSize);
var fp = fs.openSync('filepath', 'r');
var bytesRead = 0;
while(bytesRead = fs.readSync(fp, chunkBuffer, 0, chunkSize, offset)) {
    offset += bytesRead;
    var str = chunkBuffer.slice(0, bytesRead).toString();
    var arr = str.split('\n');

    if(bytesRead = chunkSize) {
        // the last item of the arr may be not a full line, leave it to the next chunk
        offset -= arr.pop().length;
    }
    lines.push(arr);
}
console.log(lines);
Kris Roofe
fonte