quarta-feira, 11 de novembro de 2009

O mito do megapixel

Nós, que usamos Photoshop em tratamento de imagens, queremos sempre computadores com mais gigabytes e gigahertz para trabalhar com conforto em imagens com cada vez mais megapixels. Mas qual é o limite do conforto? Quanto é suficiente?

O megapixel é um bicho incompreendido pelos dois lados: da informática e da fotografia. O pessoal da informática está acostumado desde a infância a pensar em gigabytes crescentes, gigahertz crescentes, tudo sempre crescente. Efetivamente, a Lei de Moore preconiza um aumento contínuo de todos os números: capacidades, velocidades, banda de conexão, potência etc.

A fotografia digital, por compartilhar com a informática um fundamento – o processamento eletrônico de dados –, impregnou-se desse espírito de competição consigo mesma. Durante a primeira geração de computadores conectados à web, não havia banda de conexão, nem memória, nem processador, nem monitor que suportassem aplicações multimídia online. Hoje, todo mundo acessa o YouTube e baixa filmes inteiros em alta definição para assistir no próprio Mac ou PC.

Naquela mesma época, a capacidade das câmeras digitais também era visivelmente – sem trocadilho – insuficiente. As imagens eram desanimadoramente borradas, sujas, acanhadas. O padrão de excelência estava solidamente estabelecido no mundo do filme.

Mas como a Lei de Moore também serve para sensores digitais de imagem, a resolução deles veio crescendo continuadamente. A indústria da fotografia reorganizou-se nos mesmos termos da indústria de informática, lançando a cada ano que passa uma geração de câmeras contendo mais pixels no sensor.

A lenda do ISO alto
No mundo dos PCs, a velocidade do processador foi dada durante anos como medida de desempenho, mesmo que isso dependa de vários outros fatores. Mas com os processos usuais de fabricação de chips, não é possível continuar a encolher o processador e a aumentar sua frequência de operação para sempre. Os designers tiveram de investir na otimização dos circuitos e nos chips com vários núcleos (dual core e quad core). O gigahertz perdeu sua significação isolada.

Algo análogo aconteceu na fotografia. Os sensores digitais das câmeras contêm cada vez mais pixels, mas isso não se reflete proporcionalmente na qualidade da imagem. Quando você enfia mais pixels em um sensor do mesmo tamanho de um sensor da geração anterior – que é o que a indústria veio fazendo ao longo de toda a década –, o ruído digital (chuvisco e granulação visíveis na imagem) aumenta.

Para resolver esse dilema, as câmeras profissionais migraram para sensores maiores e as amadoras tomaram um rumo diferente, aprimorando a maquiagem eletrônica das imagens. Destaca-se a redução de ruído e uma infinidade de modos de cena para não perder fotos em condições de fotografia que não favoreçam as características da câmera – especialmente quando ela é operada por pessoas sem treinamento fotográfico, que só querem ter o trabalho de apertar o botão de disparo no momento certo. As pessoas leigas não estão erradas em agirem assim. Se existe a possibilidade de incorporar à eletrônica da câmera uma “inteligência programada” que auxilie na tomada de fotos, tanto melhor.

A necessidade comercial de constante progresso da eletrônica criou outro problema. A corrida de marketing tem levado as marcas de câmeras a prometerem o impossível. Além do mito do megapixel, há a lenda do ISO alto. Por uma questão física, uma foto tirada com sensibilidade ISO muito alta não vai ficar boa. Apresenta muito mais ruído, contraste exagerado (alcance dinâmico limitado) e cores indistintas (sombras dessaturadas). O processamento dentro da câmera satura e borra a imagem para disfarçar. O nível de ISO que você pode usar sem transformar as fotos em lama varia muito de um modelo para outro.

Note, também, que o ISO expressa uma variável não-linear. O dobro da sensibilidade corresponde ao dobro do número. Isso significa que a diferença é da mesma ordem entre ISO 100 e 200 e entre ISO 3200 e 6400, por exemplo. Os números dão a sensação de que 6400 é incrivelmente mais rápido que 100, mas expresso em termos fotográficos – seis pontos de abertura – isso parece muito mais trivial.

Mais uma pegadinha: algumas câmeras prometem vídeo Full HD. Você imagina que se trate de vídeo de 720 ou 1080 linhas horizontais. Quando vai analisar de perto, vê que a câmera apenas dá saída em HD. A captura é no antigo padrão de 480 linhas. Opa!

Megapixels no vídeo e no cinema

Como funciona Num sensor tipo Bayer (nome do cientista da Kodak que inventou a tecnologia em 1976), metade dos subpixels é sensível ao verde e o restante é repartido entre vermelho e azul. Para completar a informação visual, a câmera executa a operação de “demosaicização”, que consiste em interpolar (calcular matematicamente) os valores que faltam a partir dos conhecidos.

Padronização Embora as contagens de megapixels variem bastante, os tamanhos dos sensores de imagem correspondem a uma série limitada de medidas. Este é o sensor de uma câmera reflex da Sony na dimensão APS-C, equivalente a cerca de 70% da área de um slide de 35mm. Os sensores com a medida próxima de 100% dessa área são chamados “full frame”.

Como todo mundo que comprou um aparelho de televisão nos últimos três anos já sabe, a definição de uma tela moderna de LCD ou plasma é dada em termos de HD ou Full HD, sendo HD correspondente a 1280 x 720 pixels (0,9 megapixel) e Full HD a 1920 x 1080 pixels (2 megapixels).

Dependendo do local de origem, a programação de TV passa em uma resolução ou na outra e, no caso da atual TV brasileira, raramente é em HD verdadeiro. Os seriados de TV norte-americanos são originalmente exibidos em 720 linhas; os filmes Blu-ray vêm em 1080 linhas.

A largura da imagem em pixels depende da proporção da imagem, mas os aparelhos de TV seguem a proporção 16:9. Por sua vez, o DVD-Video é codificado em 720 x 480 pixels (0,35 megapixel), e a largura é esticada (anamórfica) para obter a proporção pretendida durante a reprodução do filme.

A definição Full HD de 1080 linhas horizontais, embora tenha o dobro da área de pixels da HD de 720 linhas, contém uma pegadinha perceptual. A letra i, como em 1080i, sinaliza que a imagem é entrelaçada: cada quadro (frame) da imagem é formado por apenas metade das linhas horizontais. Os quadros sucessivos alternam linhas pares e ímpares. Isso permite cobrir uma área visual aparentemente maior com menos pixels transmitidos. Como resultado, o nível de detalhe real da imagem varia conforme o movimento mostrado na tela. Em movimento intenso, a cena não passa de aproximadamente 1 megapixel efetivo; com uma imagem completamente parada, a resolução sobe para 2 megapixels. Aparelhos de TV modernos incluem truques digitais para disfarçar a degradação do detalhe nos objetos em movimento em filmes HD, chegando ao extremo de interpolar quadros sucessivos da imagem em tempo real para suavizar o movimento.

No mundo do vídeo profissional, as resoluções estão sujeitas a uma variedade de formatos. Um novo formato em ascensão é o Digital Cinema 4K (4096 x 2160 pixels, pouco menos de 9 megapixels). A câmera de cinema digital Genesis, da Panavision, gera uma imagem um tanto mais larga, de 5760 x 2160 pixels (12,5 megapixels). Mas a RED já está pondo à venda sistemas modulares de vídeo digital que excedem muito essas especificações, visando necessidades futuras. É claro que imagens cada vez maiores exigem um investimento proporcional em sistemas de transmissão, armazenamento e processamento de dados, estimulando a escalada eterna do hardware no mesmo molde da indústria de PCs.

Com os pixels extras de que dispõe na imagem em relação aos formatos de distribuição digitais, o cineasta tem a inédita opção de apenas recalcular a imagem para o tamanho final, ou então fazer reenquadramento e aplicar estabilização de imagem durante a edição, sem perda de qualidade aparente na saída.

Efeitos digitais para filmes convencionais são renderizados em resoluções variáveis entre 1,4 e 6 megapixels. Toy Story, o primeiro filme totalmente criado em CG, de 1995, foi renderizado em 1536 x 922 pixels (1,43 megapixel). Já começa a parecer pequeno.

Megapixels na fotografia
Todo mundo baba por uma TV enorme mostrando uma imagem digital rasgando. Mas você acabou de ver que mesmo a definição Full HD corresponde a “apenas” 2 megapixels por quadro de imagem, e isso somente em condições favoráveis. Por que, então, a fotografia precisa de muito mais pixels?

Em primeiro lugar, porque o meio de reprodução fotográfica de uma imagem estática é bem mais variado e inclui suportes com um nível de definição altíssimo, como a cópia fotográfica, a litografia offset e a moderna impressão inkjet.

O nível de contraste entre os pixels adjacentes em imagens estáticas deve ser muito elevado, revelando mais detalhes do que ocorre no vídeo, pois neste o movimento constitui parte da informação visual, tanto quanto formas e texturas.

No mundo impresso, na prática, a situação é a seguinte: o padrão utilizado pelas gráficas é de 300 ppi (pixels por polegada) para fotos de padrão de revista impressas em offset. Isso se traduz em 8,9 megapixels para preencher uma página ou capa de uma revista típica no formato de 21 x 28cm (guardando 5 mm de sangria de cada lado). Em RGB, no Photoshop, isso implica um arquivo não comprimido de 25,5 megabytes. (Não pegue a calculadora; você pode ver esse valor a qualquer momento na função Image Size do Photoshop.)

Para trabalhos maiores, como cartazes e pôsteres, a resolução diminui, pois o nível de detalhe necessário é vinculado à distância da qual a arte será visualizada. Por esse motivo, um pôster em formato A2 pode ser criado em 150 ppi, e outro em formato A0 pode ser em 75 ppi.

O tamanho mais comum de foto revelada em laboratório, de 10 x 15cm, corresponde a 1772 x 1181 pixels em 300 ppi (que é o valor de resolução de saída dos minilabs digitais). Isso dá 2,1 megapixel, ou exatamente 6 megabytes sem compressão.

Veja que uma foto revelada com essa resolução e tamanho parece supernítida, mesmo implicando em uma grande redução em relação à quantidade de pixels originalmente registrados pela sua câmera!

Se 8,9 megapixels bastam para encher uma página de revista, e uma foto de 10×15cm precisa de apenas 2,1 megapixel, por que continuam surgindo câmeras com mais e mais pixels? Para onde vão todos eles?
A resposta é que os pixels são recombinados na interpolação, que é o cálculo matemático para a dimensão final. Você reinterpola a imagem sempre que usa o comando Image Size do Photoshop para adaptá-la à saída do trabalho.

A interpolação já foi considerada dor de cabeça pelos fotógrafos, mas na atual era de pixels abundantes, não é mais necessariamente ruim. Ajuda a preservar as texturas, manter os contornos nítidos e sumir com os chamados artefatos, aquelas sujeirinhas geradas pela compressão JPEG.

Foto digital nunca é perfeitamente nítida
Quase todos os sensores de câmeras digitais são do tipo Bayer, caracterizado por um arranjo interno que divide a imagem num mosaico de subsensores (chamados photosites), repartidos entre as cores primárias R (vermelha), G (verde) e B (azul). Isso significa que cada pixel do sensor não é propriamente um pixel, mas um “subpixel” que capta apenas um terço da informação de cor. Ao converter a informação do sensor em imagem digital, a câmera assinala, para cada um desses subpixels, os valores das outras duas cores primárias, completando o pixel. Para nisso, ela lê os valores dos subpixels vizinhos e faz um rápido cálculo.

O resultado do método é que, olhando a imagem final de perto, os pixels vizinhos nunca parecem muito contrastados entre si, já que dois terços da informação presente em cada um deles foram reconstruídos a partir das posições vizinhas no mosaico. Além disso, entre o sensor e a objetiva fica o filtro de anti-aliasing, que borra ligeiramente a nitidez da imagem para evitar a formação de moiré (figuras de interferência).
As únicas câmeras atuais que não empregam esse esquema de filtro e subpixels são as Sigma, com seu exclusivo sensor Foveon. Ele capta a informação de cor completa em cada um dos pixels, resultando numa imagem mais nítida e limpa.

Os sensores Bayer utilizados pelas principais marcas são muito similares entre si. Acontece até de os sensores usados por câmeras Canon e Nikon serem fabricados pela Sony, por exemplo. O software interno da câmera é que determina sua personalidade em termos de imagem. Mas a diferença maior sempre recai na óptica. Por regra, as câmeras SLR com lentes e sensores grandes produzem imagens mais nítidas e com menos ruído que as compactas de mesmo número de megapixels. O processamento de imagem compensa parte da diferença, mas não toda ela.

Embora haja um entusiasmo com câmeras de celular com sensores de 5 megapixels, eles sofrem das mesmas limitações técnicas de uma câmera subcompacta. Em poucas palavras, escolha sua próxima câmera pela qualidade da lente, pois ela será mais decisiva na qualidade da foto que o número de pixels do sensor.

A convergência dos megapixels

Com a convergência entre vídeo e foto, os novos sistemas de cinema digital começaram a competir com as SLRs topo de linha. As máquinas da Canon e Nikon agora gravam vídeo, mas partem de uma filosofia oposta à da RED, companhia de cinema digital norte-americana que investe na força bruta. Ela oferece quantidades de pixels maiores que as suportadas pelos atuais sistemas de projeção, de olho nas exigências de qualidade do futuro. De fato, o sensor campeão de tamanho numa câmera digital é o Mysterium Monstro da RED, com a dimensão física de 168 x 56 mm.

A sigla “2K”, “4K” etc. que os videastas usam refere-se à largura aproximada da imagem em pixels. (O padrão 8K é uma proposta de TV digital para o ano 2020.)

Nenhum comentário:

Postar um comentário