Neste artigo vou explicar como funciona o sensor quad bayer do Mavic Air 2 e como ele pode te auxiliar a capturar imagens melhores.
Toda câmera é composta por alguns componentes básicos, mas como a ideia aqui não é acabar com a paciência de vocês e nem explicar como funciona uma câmera. vamos dizer apenas que toda câmera possui um sensor de imagem, que é a parte responsável por captar a luz e transformar ela em sinais elétricos que vão ser interpretados pelo processador.
Acontece que um dos grandes argumentos de venda do Air 2 é justamente a câmera de 48MP, que pelo que a campanha dá a entender é muito superior a uma de “apenas” 12MP.
O sensor IMX586 do Mavic Air 2
Em primeiro lugar, fique claro que a quantidade de mega pixels afeta o tamanho da imagem, e não a qualidade dela. Então pra imprimir um poster ou dar um zoom digital, quanto mais pixels melhor, fora isso os megapixels extras começam a fazer menos falta. Então, tem como uma foto de 48MP ficar pior que a uma de 12MP? É claro que sim.
Falando agora sobre o Mavic Air 2. Se quiser assistir ao vídeo, é só dar um play aqui em baixo. Se prefere ler, é só seguir em frente.
Pra equipar a câmera ele a DJI escolheu um sensor de imagem chamado IMX586, e não se trata de uma das tecnologias alienígenas que a gente tanto gosta de ver nos drones deles. É na verdade um sensor desenvolvido pela Sony lá por 2018 e que nao por acaso equipa uma boa parte dos aparelhos celulares intermediários do mercado.
A gente sabe que todo sensor de imagem é composto por milhões de pixels, tem sensor de 12MP, 20MP e por aí vai. Mas a gente sabe também que existem câmeras com sensores maiores e câmeras com sensores menores. Por exemplo, o sensor do Mavic 2 zoom tem 1/2.3 polegadas enquanto o do Mavic 2 pro tem sensor de 1 polegada.
E é aí que a porca começa a torcer o rabo.
Nos acostumamos a simplesmente aceitar como verdade a afirmação de que quanto maior o sensor, mais luz ele capta e assim melhor é a câmera, sobretudo em condições de pouca luz.
E isso pode funcionar muito bem nas campanhas de marketing das empresas, mas é bom nunca esquecer que no mundo real o que vale ainda é a boa e velha física, e segundo a lei da impenetrabilidade, dois corpos não podem ocupar o mesmo lugar no espaço ao mesmo tempo.
Pensem comigo:
Se o sensor do Mavic 2 Pro tem 20MP enfiados em um sensor de 1 polegada, e o do Mavic Air 2 tem mais do que o dobro de pixels em um sensor com a metade do tamanho, é óbvio que os pixels do sensor do Air 2 precisam ser bem menores.
Então em termos de captação de luz o sensor da câmera do Air 2 é teoricamente inferior ao da câmera do Mavic 2 Pro, e também inferior à do Mavic 2 Zoom, que inclusive é menor mas possui 4 vezes menos pixels.
O sensor Quad Bayer?
E esse seria um problema gravíssimo se não fosse o momento em que finalmente entra em cena toda a beleza e engenharia por trás do IMX586.
Ele utiliza uma tecnologia chamada Quad Bayer, e aqui vocês verão mais uma vez o departamento de marketing da DJI em ação. Se vocês olharem o site do produto, vão ver que essa palavrinha não é mencionada em lugar nenhum para explicar os 48MP, mas é citada para validar o novo recurso de HDR, justamente porque é essa mesma tecnologia a responsável por tornar ele possível.
E como isso funciona?
Cada pixel do sensor de imagem capta um dos milhões de pontos que compõem a imagem que está sendo capturada. Só que esses pixels não captam cores, eles só captam a intensidade da luz. Logo o que ele vê é uma imagem em preto e branco.
Sobre o sensor no entanto existe um negócio chamado filtro Bayer, que é um mosaico de filtros coloridos que permite que cada pixel capture uma cor intercaladamente, e depois essa coisa estranha é combinada por um algoritmo chamado de demosaicing, que gera a imagem final que nossos olhos são capazes de interpretar.
No caso de um sensor convencional a gente tem vários pixels de cerca de 1,4 microns, e sobre cada um deles tem um filtro azul, verde ou vermelho.
Já no caso de um sensor quad bayer, debaixo de cada cor existem não 1 mas 4 pixels menores, de 0,8 microns. E como eles são menores, cabem mais deles ali dentro do sensor.
E apesar de parecer simples, é essa tecnologia que trabalha pra conseguir:
Maior resolução
HDR melhor
Menos ruído
Imagens melhores com pouca luz
O único problema é que não dá pra ter tudo isso ao mesmo tempo. Vamos lá.
1. Maior resolução
Se vocÊ tem uma câmera que tira fotos de 8000 x 6000 pixels, então você tem uma câmera de 48MP. No caso do quad bayer porém, cada grupo de 4 pixels captura a mesma cor ao invés de cores individuais, e isso obviamente não é a mesma coisa que acontece em um sensor comum. E como o algoritmo de demosaicing precisa lidar com pixels de cores distintas fisicamente mais separados entre sí, apesar da resolução ser 4 vezes maior, o ganho em definição não chega a isso.
No caso específico do Mavic Air 2 eu ainda não posso falar nada, mas como aqui a gente se esforça então eu trouxe duas imagens tiradas com o Galaxy A80, que também utiliza um sensor quad bayer.
Entendido então a questão da resolução? Pode ter 4 vezes mais pixels mas não significa que seja 4 vezes melhor.
2. HDR
Pra quem não sabe, HDR significa High Dynamic Range e é o nome de uma técnica usada pra criar fotos com mais detalhes a partir de cenas com grande variação entre partes claras e partes escuras.
Como é que uma câmera convencional faz uma imagem HDR? Batendo 2 ou mais fotos com exposições diferentes. As fotos com maior exposição vão capturar mais detalhes das partes escuras enquanto as fotos com menor exposição vão capturar as partes claras sem estourar. Aí depois um algoritmo mescla essas imagens gerando uma imagem final com range dinâmico muito melhor.
O detalhe é que essa técnica tem um pequeno porém. Te imagina tirando uma foto do mar em HDR. Em uma câmera convencional por menor que seja o intervalo de tempo em uma foto e outra, as ondas terão se movido um pouquinho. Por causa disso é preciso envolver algumas técnicas de processamento de imagem para que a foto final não fique borrada.
Já no caso de um sensor quad bayer, o sensor físico pode ser dividio em 2 sensores lógicos, e aí é possível literalmente fazer com que a câmera tire 2 fotos ao mesmo tempo com exposições diferentes, e isso garante que elas sejam exatamente iguais. Qual o problema disso? As fotos em HDR não possuem 48MP, e sim 12MP.
3. Imagens com menos ruído
Durante a captura de uma imagem existe um fenômeno chamado ruído. E quando uma câmera tira uma foto, cada pixel pode captar eventualmente ruído ao invés de sinal. No caso de um sensor convencional, se um pixel capta ruído, 100% daquele ponto se perde, de forma que resta ao algoritmo de demosaicing fazer alguns cálculos com base nos pixels adjacentes para reconstruir ele da melhor forma.
Já no caso do Quad Bayer, se um pixel captar ruído, como ele funciona em grupos de 4 acaba que tu só perde 25% da informação, e novamente em teoria, isso acaba resolutando em imagens com menos ruído e maior nitidez. Beleza?
4. Capturar imagens melhores com pouca luz
Como a gente já falou, a única forma de espremer mais pixels em um sensor de tamanho semelhante é reduzindo o tamanho deles. Só que pixels menores captam menos luz e luz é a matéria prima de qualquer fotografia. Como é que o sensor quad bayer resolve isso? Ele transforma 4 pixels em 1, e aí ao invés de 48 milhões de pixels de 0,8 microns, agora tu tens 12 milhões de pixels de 1,6 microns, maiores até que os 1,4 microns dos sensores convencionais.
É o que a DJI chama de Hyperlight, e novamente, o problema é que para que isso funcione a câmera precisa voltar a funcionar como uma câmera de 12MP, só que com pixels maiores.
Então a conclusão disso é que a câmera do Mavic Air 2 possui de fato 48MP e pelo que temos visto nos reviews captura imagens impressionantes, muito embora isso não signifique imagens 4 vezes melhores.
E só a título de curiosidade, já existiu um celular com câmera de 41MP com pixels normais de 1,4 microns. Foi o Nokia 808 Pureview. Ele tinha um sensor enorme de quase 1 polegada e tirava fotos impressionantes. Aquestão é que o custo era alto e o ganho na prática não valia à pena, então isso ajuda a explicar o fato de que a tecnologia acabou não indo nessa direção.
Então agora que a gente já sabe como ele funciona, vamos esperar pra ter um em mãos e ver na prática como é que ele se sai.
É comum as pessoas se preocuparem com milhões e mais milhões de pixels da câmera, mas esquecem que se vc for observar a imagem seja ela em uma tela qq ou mesmo uma impressão, de nada vai adiantar se a resolução elevada da câmera se seu dispositivo onde vai aparecer a imagem não tiver resolução suficiente p aproveitar a qtdade de informação disponível, assim podemos dizer que boa parte das pessoas realmente não podem usufruir de certas vantagens, muito embora tenham investido seu dindin esperando resultados bons… é como uma corrente, ela nunca vai ser mais resistente que seu elo mais fraco, as imagens tbém funcionam assim…
Geraldo Franco
24/05/2020 at 14:29
É comum as pessoas se preocuparem com milhões e mais milhões de pixels da câmera, mas esquecem que se vc for observar a imagem seja ela em uma tela qq ou mesmo uma impressão, de nada vai adiantar se a resolução elevada da câmera se seu dispositivo onde vai aparecer a imagem não tiver resolução suficiente p aproveitar a qtdade de informação disponível, assim podemos dizer que boa parte das pessoas realmente não podem usufruir de certas vantagens, muito embora tenham investido seu dindin esperando resultados bons… é como uma corrente, ela nunca vai ser mais resistente que seu elo mais fraco, as imagens tbém funcionam assim…
Alexsandre
07/08/2022 at 15:35
Olá como faço para tirar fotos com o drone wingsland s6? Eu não consigo tirar fotos com ele…funcionando normalmente porém sem opção de tirar fotos??