Quero saber o status HTTP dos sites usando o Ubuntu. Eu usei curl
e wget
comando para esse fim. Mas o problema é que esses comandos fazem o download da página completa do site e, em seguida, procure o cabeçalho e o exibe na tela. Por exemplo:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
O mesmo acontece com o Wget
comando em que a página completa está sendo baixada e consumindo desnecessariamente minha largura de banda.
O que estou procurando é: como obter o código de status HTTP sem realmente fazer download de qualquer página para que eu possa economizar meu consumo de largura de banda. Eu tentei usar curl, mas não tenho certeza se estou baixando a página completa ou apenas um cabeçalho no meu sistema para obter o código de status.
command-line
wget
curl
Jaffer Wilson
fonte
fonte
curl -v
(--verbose
) é uma maneira útil de depurar qual curl está realmente enviando e recebendo.Respostas:
curl -I
busca apenas os cabeçalhos HTTP; ele não baixa a página inteira. Deman curl
:Outra opção é instalar
lynx
e usarlynx -head -dump
.A solicitação HEAD é especificada pelo protocolo HTTP 1.1 ( RFC 2616 ):
fonte
Com
wget
, você precisa usar a--spider
opção para enviar uma solicitação HEAD como curl:fonte