Este post mostra como transmitir usando o VLC. Funciona bem e é simples, mas me dá um segundo atraso. Este post usa o GStreamer e possui um atraso de 0,3 segundos; Eu gostaria menos.
É possível usar o chip gráfico Raspberry Pi para acelerar a codificação?
camera
streaming-video
raspicam
Antonvh
fonte
fonte
Respostas:
Com o Ubuntu 14.10 e o Gstreamer, alcanço uma latência de 100 a 116 ms com 1280 x 720 a 60Hz.
Tanques para @Antonvh, que me coloca no caminho certo. Eu reproduzo aqui a solução para referência posterior.
Para transmitir a partir do Pi:
Para recebê-lo em seu computador com gst-0.10 e enviá-lo para um dispositivo virtual v4l2 (na verdade você precisa do v4l2loopback ):
Em seguida, você pode abrir o dispositivo
/dev/video1
em qualquer software que suporte a captura v4l2.Para uma solução gst-1.0 (v4l2loopback não funciona com gst-1.0), deixo você ver a postagem do blog Antonvh .
fonte
Eu consegui um atraso de 200ms! O truque: envie menos quadros do Pi do que você lê no lado remoto, isso garante que o buffer permaneça vazio.
Aqui está uma foto que tirei do RPi filmando um cronômetro. Mostra a diferença horária.
Esta é a receita que eu uso. Primeiro no laptop (Mac), faça o seguinte:
Em seguida, no RPI, comece a transmitir:
Tenha certeza de:
fonte
Eu uso esta receita de vídeo: http://archpi.dabase.com/#sending-and-receiving-pi-camera-video-over-the-network
Você já tentou https://github.com/thaytan/gst-rpicamsrc ? Isso deve ser um pouco mais simplificado. Não posso me incomodar em tentar.
O atraso de 0,3s é muito bom.
fonte