Estou tentando importar um arquivo SQL compactado com gzip no mysql diretamente. Esse é o caminho certo? mysql -uroot -ppassword mydb >
Gzip é um dos vários aplicativos de software usados para compactação e descompactação de arquivos. O termo geralmente se refere à implementação do Projeto GNU, "gzip", sigla para GNU zip. É baseado no algoritmo DEFLATE, que é uma combinação da codificação Lempel-Ziv (LZ77) e Huffman.
Estou tentando importar um arquivo SQL compactado com gzip no mysql diretamente. Esse é o caminho certo? mysql -uroot -ppassword mydb >
Geralmente, após despejar um banco de dados MySQL com o mysqldumpcomando, eu imediatamente tar / gzip o arquivo resultante. Estou procurando uma maneira de fazer isso em um comando: Então a partir disso: mysqldump dbname -u root -p > dbname.sql tar czvf dbname.sql.tgz dbname.sql rm...
Estou usando o cache de proxy reverso nginx com o gzip ativado. No entanto, tive alguns problemas com as solicitações HTTP dos aplicativos Android para o meu serviço da web Rails JSON. Parece que quando eu desligo o cache do proxy reverso, ele funciona bem porque o cabeçalho da resposta vem sem o...
Existe uma maneira de extrair um arquivo tar.gz mais rápido do que tar -zxvf filenamehere? Temos arquivos grandes e tentando otimizar a
Estou executando este comando: pg_dumpall | bzip2 > cluster-$(date --iso).sql.bz2 Leva muito tempo. Eu olho para os processos com top. O processo bzip2 leva cerca de 95% e o postgres 5% de um núcleo. A waentrada é baixa. Isso significa que o disco não é o gargalo. O que posso fazer para...
Como ativar a compactação Gzip ou Deflate via .htaccess e qual é a melhor atualmente? Exemplos de código
Eu tenho um script que zip arquivos de uma pasta. Quero garantir que o arquivo compactado não tenha mais de 10 MB. Se o tamanho for maior que 10 MB, ele deverá criar outro arquivo ZIP. Existe algum comando (ou outro método) que possa ser usado para
Espero obter alguma orientação sobre como configurar truncamentos e gzip'ing nos logs de acesso dos meus domínios. Percebo que os principais logs de acesso ao nginx são divididos e compactados por padrão, mas meus logs de acesso individuais continuam a crescer. Isso é algo que pode ser configurado...
Eu sei que você pode usar o nginx HttpGzipModule para gzip respostas . Você também pode usá-lo para permitir que o nginx lide com solicitações compactadas por gzip , ou seja, com o cabeçalho da solicitação Content-Encoding: gzip:? Nota: O Apache, com a ajuda de, mod_deflatepode lidar com...
Eu tenho vários arquivos de log compactados que gostaria de servir com o nginx. Quero que eles sejam veiculados de forma que sejam inflados automaticamente pelo navegador. Suponho que isso significa que eu preciso do nginx para enviar os arquivos como .gz com um cabeçalho de texto / sem formatação....
Eu tenho um arquivo tar (gz, bzip) e quero ver seu conteúdo, mas não recursivamente. Isto é: O "primeiro nível" no arquivo. Eu já sei ver o conteúdo: tar -ztf file.tar.gz Mas é recursivo
Como eu seria capaz de compactar subdiretórios em arquivos separados? Exemplo: directory subdir1 subdir2 Deve criar subdir1 (.tar) .gz e subdir2 (.tar)
Existe um encanamento mágico do shell que permitiria facilmente navegar através de vários arquivos de log .gz sem a necessidade de extraí-los em algum lugar? Os arquivos .gz são logs do Apache, resultado da rotação dos logs. Gostaria de verificar rapidamente com que frequência certos URIs são...
Eu tenho tentado criar regras de saída no IIS 7.5 no Windows 2008 R2 em um site que possui páginas HTML estáticas e compactação ativada. Se eu tiver qualquer forma de compactação ativada (estática ou dinâmica), recebo este erro: HTTP Error 500.52 - URL Rewrite Module Error. Outbound rewrite rules...
Eu realmente aprecio alguma ajuda para entender esse comportamento do Apache. Estou me comunicando com o PHP a partir de um aplicativo iPhone Objective-C no aplicativo / json. A compactação gzip é ativada no servidor e solicitada pelo cliente. Do meu .htaccess: AddOutputFilterByType DEFLATE...
Eu tenho um arquivo de 100 GB e quero dividir em 100 de 1 GB cada (por quebra de linha) por exemplo split --bytes=1024M /path/to/input /path/to/output Para os 100 arquivos gerados, quero aplicar o gzip / zip a cada um desses arquivos. É possível usar um único
É possível usar o GZip para criar um arquivo .zip? Estive pesquisando no Google e não consigo encontrar nada que me leve a acreditar que isso é
Atualmente, estou tentando configurar o Nginx para servir todos os meus arquivos estáticos. Como eles não serão alterados com muita frequência, quero o módulo gzip_static para permitir pré-compactar o gzip de meus arquivos para economizar tempo na CPU e permitir uma melhor compactação. Compilei o...
Eu faço backups de um servidor com o rsync, mas esses backups são muito grandes e eu gostaria de compactá-los. Existe uma maneira de ter algum tipo de wrapper no rsync para compactar o arquivo no backup, rsync as alterações do arquivo ativo e re-compactá-lo novamente assim que for copiado? Ou...
Tudo bem, se alguém quiser brincar de deus e fazer milagres, eu estou triste. Então, eu tive a tarefa de criar um script que encontrasse arquivos com mais de 6 meses, os zipasse e os excluísse. No meu caminho para fazer seu script, executei o seguinte: find / -type f -mtime -400 ! -mtime -180 |...