
Resumo
-
Estudo da Universidade de Cambridge e Meta sugere que a diferença de nitidez entre 4K e 8K é imperceptível para o olho humano nas condições típicas de uso.
-
O experimento envolveu 18 participantes e mostrou que a percepção média ultrapassa o padrão 20/20, mas sem ganhos práticos em resoluções muito altas.
-
Os pesquisadores também criaram uma calculadora online para estimar o limite de percepção visual, reforçando que o 8K raramente oferece benefícios reais.
Será que o investimento em uma TV 8K realmente vale a pena? Um estudo recente, conduzido por cientistas da Universidade de Cambridge, no Reino Unido, sugere que não. A pesquisa indica que, para a distância de visualização comum em uma sala de estar, telas 4K ou 8K não oferecem benefícios perceptíveis em nitidez quando comparadas a uma tela 2K de tamanho similar.
O estudo foi realizado em colaboração com a Meta e publicado na revista Nature Communications, e buscou determinar o limite real que o olho humano consegue distinguir. Embora a visão considerada normal (20/20) implique a capacidade de diferenciar 60 pixels por grau (PPD), os pesquisadores argumentam que a maioria das pessoas enxerga detalhes além disso.
É importante notar, contudo, que a pesquisa foi realizada com um número limitado de apenas 18 participantes, focado especificamente na percepção de nitidez em relação à resolução.
Como foi o experimento?

Para testar essa capacidade, a equipe utilizou um monitor 4K de 27 polegadas montado em um suporte móvel. Os 18 participantes, com visão normal (ou corrigida), foram posicionados a diferentes distâncias da tela. Em cada posição, exibia-se, aleatoriamente, dois tipos de imagem:
- Uma com linhas finas verticais (em preto e branco, vermelho e verde, ou amarelo e violeta)
- Outra totalmente cinza
Os participantes precisavam indicar qual imagem continha as linhas. “Quando se tornam muito finas ou a resolução da tela muito alta, o padrão não parece diferente de uma imagem cinza simples”, explica a Dra. Maliha Ashraf, da Universidade de Cambridge, autora do estudo. “Medimos o ponto onde as pessoas mal conseguiam distingui-las. É o que chamamos de limite de resolução.”
Os resultados mostraram que o olho humano pode perceber mais detalhes do que o padrão 20/20 sugere. A média de resolução percebida foi de 94 PPD para imagens em tons de cinza vistas de frente. Para padrões vermelho e verde, a média foi de 89 PPD, caindo para 53 PPD em padrões amarelo e violeta.
Em um segundo experimento com 12 participantes, textos brancos sobre fundo preto (e vice-versa) foram exibidos em diferentes distâncias. Os voluntários indicavam quando o texto parecia tão nítido quanto uma versão de referência perfeitamente focada.
“A resolução na qual as pessoas pararam de notar diferenças no texto coincidiu com o que vimos nos padrões de linhas”, afirma Ashraf.
Calculadora mede a percepção da resolução

A partir dos dados da pesquisa, os desenvolvedores criaram um gráfico e uma calculadora online gratuita, disponível no site do laboratório. Ela permite que o usuário insira a distância de visualização, o tamanho e a resolução da tela para verificar se a configuração atual está acima ou abaixo do limite de percepção visual da maioria das pessoas.
A conclusão, segundo os cientistas, é que muitos aparelhos domésticos já ultrapassam o que o olho humano pode processar. “Se alguém já tem uma TV 4K de 44 polegadas e a assiste a cerca de 2,5 metros de distância, isso já é mais detalhe do que o olho pode ver”, exemplifica Ashraf. “Atualizar para uma versão 8K do mesmo tamanho não deixaria mais nítido”.
A pesquisadora ainda sugere que, a partir de certo ponto, adicionar mais pixels se torna um “desperdício”, pois o olho humano simplesmente não consegue detectá-los.

