Google publicou na última semana uma explicação oficial de como funciona a estabilização de imagem na câmera de seus novos smartphones. Durante o lançamento dos produtos, a empresa explicou que se trata de uma mistura de estabilização óptica com estabiliza eletrônica. Contudo, a coisa toda é bem mais complexa do que isso.

Existem várias características de movimento das mãos ou do veículo em que o usuário está a serem levadas em conta. Alguns problemas são melhor resolvidos pela estabilização óptica e outros pela eletrônica. A primeira é baseada em hardware e tem limitações na quantidade máxima de compensação de movimentos. A segunda, por sua vez, sofre para responder às trepidações a tempo e costuma causar efeitos curiosos.

A Google resolveu abordar o assunto de uma forma diferente e criou o Fused Video Stabilization, combinando os dois sistemas em um só

Por conta dessas diferenças, fabricantes de smartphones nunca conseguiram combinar as duas formas de estabilização e ter um resultado melhor do que antes. Com os novos Pixels, a Google resolveu abordar o assunto de uma forma diferente e criou o Fused Video Stabilization, combinando os dois sistemas em um só.

Para isso funcionar, a Google preparou um sistema que opera em três fases para estabilizar cada quadro de um vídeo. A primeira fase, segundo a empresa, é a análise de movimento. Isso acontece no giroscópio do smartphone e também no hardware de compensação de movimentos da estabilização óptica. A Google desenvolveu uma forma de sincronizar as informações de movimento dessas duas fontes em vários eixos para atribuir detalhes de correção precisos para cada quadro que a câmera captura. A empresa fala que a sincronização é o maior desafio dessa fase e requer sensores funcionando a altíssimas velocidades para acompanhar a captura do vídeo.

A segunda fase é a filtragem de movimento. Aqui, o smartphone retira o movimento real da câmera e cria um feed virtual estabilizado de vídeo. Nesse processo de separação do feed real da câmera do virtual estabilizado, o smartphone ainda usa Machine Learning para prever os próximos movimentos da mão do usuário e, com isso, fazer com que a estabilização eletrônica reaja mais rapidamente.

Finalmente, temos a terceira fase, a sintetização dos quadros. Depois de todo esse processo de análise e correção de movimentos, o software da Google finaliza os quadros do vídeo aplicando correções relacionadas a distorções naturais da captura de imagem digital. Cada quadro é dividido em uma espécie de malha e as alterações são aplicadas em cada pedaço separadamente.

O procedimento não é exatamente simples, mas caso você entenda bastante de fotografia, pode ler a publicação original da Google (em inglês) e conferir os detalhes técnicos que a gente filtrou nessa explicação. Agora, confira algumas comparações de vídeo estabilizados com a Fused Video Stabilization e sem estabilização alguma.

Cupons de desconto TecMundo: