Cenário: estou criando uma visualização WebRTC dentro de um aplicativo O contêiner para vídeos sempre terá uma altura de 160.
No centro do contêiner, deve ser exibido o vídeo remoto com uma altura máxima de 160, e a largura deve ser redimensionada para respeitar a proporção do vídeo. A largura também não pode ser maior que a largura da vista; nesse caso, a largura será igual à largura da vista e a altura deve ser adaptada à proporção.
No canto superior direito, deve ser exibido o vídeo local da câmera frontal com uma largura máxima de 100 e a altura deve ser adaptada para respeitar a proporção do vídeo local
meu código até agora:
func createPeerConnection () {
// some other code
self.localStream = self.factory.mediaStream(withStreamId: "stream")
let videoSource = self.factory.videoSource()
let devices = RTCCameraVideoCapturer.captureDevices()
if let camera = devices.last,
let format = RTCCameraVideoCapturer.supportedFormats(for: camera).last,
let fps = format.videoSupportedFrameRateRanges.first?.maxFrameRate {
let intFps = Int(fps)
self.capturer = RTCCameraVideoCapturer(delegate: videoSource)
self.capturer?.startCapture(with: camera, format: format, fps: intFps)
videoSource.adaptOutputFormat(toWidth: 100, height: 160, fps: Int32(fps))
}
let videoTrack = self.factory.videoTrack(with: videoSource, trackId: "video")
self.localStream.addVideoTrack(videoTrack)
DispatchQueue.main.async {
if self.localView == nil {
let videoView = RTCEAGLVideoView(frame: CGRect(x: self.view.frame.size.width - 105, y: 5, width: 100, height: 160))
videoView.backgroundColor = UIColor.red
self.view.addSubview(videoView)
self.localView = videoView
}
videoTrack.add(self.localView!)
}
}
func peerConnection(_ peerConnection: RTCPeerConnection, didAdd stream: RTCMediaStream) {
self.remoteStream = stream
if let videoTrack = stream.videoTracks.first {
DispatchQueue.main.async {
if self.remoteView == nil {
let videoView = RTCEAGLVideoView(frame: CGRect(x: self.view.frame.size.width - 50, y: 0, width: 100, height: 160))
videoView.backgroundColor = UIColor.green
if let local = self.localView {
self.view.insertSubview(videoView, belowSubview: local)
} else {
self.view.addSubview(videoView)
}
self.remoteView = videoView
}
videoTrack.add(self.remoteView!)
}
}
}
Não sei como obter a proporção de um dos vídeos, local ou remoto. Se eu tivesse isso, eu poderia calcular a largura e altura apropriadas para cada um deles
Respostas:
Você pode usar os botões
AVURLAsset
eCGSize
para obter a resolução do vídeoAgora, use
natural size
epreferredTransform
Além disso, você pode encontrar o fator de escala
Isso também pode ser alcançado por
GPUImageMovie
,GPUImageCropFilter
eGPUImageMovieWriter
fonte