Existe uma velocidade de análise ou vantagem de uso de memória ao usar HDF5 para armazenamento de grande array (em vez de arquivos binários simples)?
Estou processando grandes matrizes 3D, que frequentemente preciso dividir de várias maneiras para fazer uma variedade de análises de dados. Um "cubo" típico pode ter cerca de 100 GB (e provavelmente ficará maior no futuro) Parece que o formato de arquivo recomendado típico para grandes conjuntos...