O Raspberry Pi fará a codificação h264 acelerada por hardware ao gravar vídeo da placa da câmera. Como codificar h264 (usando aceleração de hardware) quando as imagens de origem não vêm diretamente da câmera?
Existem ferramentas de linha de comando que suportam isso?
Se não, quais APIs devo procurar para tornar isso possível?
raspiyuv -o - | rpi-encode-yuv
(aproximadamente) onde arpi-encode-yuv
ferramenta é daqui . O tamanho do quadro é codificado nesta ferramenta, portanto, é necessário alterá-lo no início do arquivo C e recompilar. Infelizmente ainda não consegui obter uma saída adequadamente alinhada, poisraspiyuv
não parece codificar o tamanho do quadro na saída. Recebo uma imagem que muda gradualmente que acaba se transformando em lixo. Ainda trabalhando nisso.Respostas:
O GStreamer está incluído no Raspbian e, com seu plugin OpenMAX, ele usa os recursos de codificação de hardware do Raspberry Pi.
Consulte este link para obter um tutorial sobre como fazer o que você está procurando: https://www.raspberrypi.org/forums/viewtopic.php?t=72435
Se você está interessado em transcodificar, acabei de postar uma resposta para outra pergunta que pode lhe interessar: Qual a velocidade que posso esperar da codificação hardware-H264?
fonte
Parece que, compilando o ffmpeg sozinho, no RPi3B + você pode obter
O script para ajudar a conseguir tudo isso está em um tópico do fórum .
fonte