quinta-feira, 3 de fevereiro de 2011

Placas gráficas

Placa de vídeo, ou placa gráfica, é um componente de um computador que envia sinais deste para o monitor, de forma que possam ser apresentadas imagens ao utilizador. Normalmente possui memória própria, com capacidade medida em octetos.


Nos computadores de baixo custo, as placas de vídeo estão incorporadas na placa-mãe, não possuem memória dedicada, e por isso utilizam a memória viva do sistema, normalmente denominada memória (com)partilhada. Como a memória viva de sistema é geralmente mais lenta do que as utilizadas pelos fabricantes de placas de vídeo, e ainda dividem o barramento com o processador e outros periféricos para acessá-la, este método torna o sistema mais lento. Isso é notado especialmente quando se usam recursos tridimensionais.
Já em computadores bons e mais sofisticados, o adaptador de vídeo pode ter um processador próprio, o GPU ou acelerador gráfico.


Unidade de processamento gráfico (GPU)


GPU (Graphics Processing Unit, ou Unidade de Processamento Gráfico), conhecido também como VPU ou unidade de processamento visual, é o nome dado a um tipo microprocessador especializado em processar gráficos em computadores pessoais, estações de trabalho ou videogames. GPUs modernas manipulam gráficos computadorizados com eficiência e sua estrutura de processamento paralelo os tornam mais capazes neste tipo de trabalho que CPUs normais. Uma GPU normalmente é utilizada em placas de vídeo mas versões simplificadas são integradas diretamente em placas-mãe.


O primeiro GPU voltado para o uso doméstico foi o modelo GeForce 256. No entanto, alguns processadores especializados voltados para uso profissional em simuladores e computação gráfica já atendiam aos critérios.


As duas maiores empresas que fabricam GPU's são ATI e nVidia, além da estadunidense Intel por meio de suas GPUs integradas em chipsets (com apenas aceleradores de mídia).




ATI


ATI Technologies é uma fabricante multinacional de hardware para computadores, mundialmente conhecida por suas CPUs e suas placas de vídeo. A empresa está sediada em Markham, Região Metropolitana de Toronto, Ontário, Canadá.


Além de desenvolver GPUs (graphics processing unit, chamado pela ATI de VPU, visual processing unit) de alto desempenho para computadores pessoais, a ATI também projeta processadores para laptops (as versões "Mobility"), PDAs e telefones celulares (a linha "Imageon"), placas-mãe integradas ("Radeon IGP"), além de outros segmentos de mercado. Devido a esse portfolio diversificado, a ATI tem forte presença nos mercados OEM e de multimédia.
O principal concorrente da ATI é a NVIDIA. A partir de 2001, a principal linha de produtos é a série Radeon de aceleradores gráficos 3D que concorre diretamente com a série GeForce da NVIDIA.





Logótipo da ATI



Chipsets gráficos para computadores:
  • EGA / VGA Wonder - compatível com os adaptadores gráficos "EGA/VGA" da IBM (1987)
  • Mach8 - primeiro "acelerador 2D Windows" da ATI's (clone do acelerador IBM 8514) (1991)
  • Mach32 - acelerador 2D compatível com VGA com recursos estendidos (aceleração "true-color" 32-bit) (1992)
  • Mach64 - acelerador otimizado para 2D com aceleração de vídeo (zoom de imagens via hardware, conversão de cores YU→RGB) (1994)
  • Série Rage - primeiro acelerador 2D / 3D da ATI. A série evoluiu de aceleração rudimentar 3D (além das capacidades 2D e MPEG-1 dos antecessores) para um acelerador 3D competitivo com excelente desempenho em DVD. (1995-2004)
  • Rage Mobility - criados para uso em ambientes que requerem baixo consumo de energia, como notebooks. Semelhantes em funcionalidade aos equivalentes para desktops, somados a funcionalidades de gerenciamento de energia, interface para LCDs e suporte a múltiplos monitores.
  • Série Radeon - lançada no ano 2000, é a marca da ATI para aceleradores gráficos 3D voltado para usuários domésticos. O modelo Radeon DDR foi o primeiro acelerador Direct3D 7 da ATI.
  • Mobility Radeon - a série de versões otimizadas para baixo consumo da família Radeon, voltadas para uso em notebooks.
  • ATI CrossFire - tecnologia da ATI lançada em respostas ao SLI da NVIDIA. Permite usar duas placas de video para processamento em paralelo com o objetivo de aumentar o desempenho.
  • FireGL - família de produtos voltados para o uso em CAD/CAM lançada em 2001 com a compra da divisão FireGL da Diamond Multimedia, desde então baseada na tecnologia Radeon.


ATI HD 6970




Aceleradores gráficos para consoles:


  • Flipper - processador gráfico do Nintendo GameCube desenvolvido pela ArtX, Inc, empresa comprada pela ATI durante o fim do desenvolvimento da GPU. Possui uma gama de recursos semelhante a de outros aceleradores Direct3D 7 como a linha Radeon R100 e GeForce 256, com suporte limitado a pixel shaders. Uma das principais diferenças do processador é o uso de 3MB de memória 1T-SRAM embutida para armazenamento de texturas e framebuffer/Z-buffer com baixa latência (6 nanosegundos) e alta taxa de transferência para a época (10,4 GB/segundo). O Flipper foi desenvolvido pelos criadores do "Reality Coprocessor" utilizado no Nintendo 64 ao deixar a Silicon Graphics. Essa mesma equipe teve mais tarde participação importante no desenvolvimento da Radeon 9700.
  • Xenos - processador gráfico do Xbox 360 conhecido também como "R500" e "C1". Não possui um equivalente direto na gama de produtos da ATI, foi desenvolvido exclusivamente para o console e seus recursos podem ser utilizados na família de produtos para computadores pessoais. Com performance de 240 GFLOPS (10 FLOPS x 48 shader pipelines x 500 MHz), Clock de 500MHz, 10MB de DRAM embutida e capaz de processar 500 milhões de triângulos por segundo.
  • Hollywood - GPU utilizada no console Wii da Nintendo


ATI CrossFire


CrossFire é uma tecnologia para GPU desenvolvida pela ATI. Ela possibilita o uso de duas placas de vídeo em paralelo para processamento de imagem.






É equivalente à tecnologia SLI da rival NVIDIA, porém a tecnologia SLI não permite o uso de diferentes modelos de placas de vídeo.
O aumento de desempenho é acompanhado de um alto custo, que exige um conjunto de placa-mãe, fonte de alimentação e placas de vídeo compatíveis, além de necessitar em alguns casos de uma placa específica para o modo Crossfire.




ATI HD X850 XT (CrossFire)
Anunciada em 30 de maio de 2005, sofreu diversos atrasos de disponibilidade e foi lançado oficialmente em 26 de setembro.




Dispositivos portáteis:


  • Imageon - linha de produtos lançada em 2002 criada para disponibilizar aceleração 3D à PDAs e telefones celulares. Possuem recursos de aceleração 3D, decodificação de vídeo MPEG-4, codificação/decodificação JPEG e sistema de processamento de imagens para câmeras embutidas.


ATI HD 6000M


Chipsets para computadores pessoais:


Os primeiros processadores para chipsets da ATI foram os modelos Radeon 320 e 340, normalmente utilizados com south bridges (ponte sul, processadores secundários) da ALi. Vendidos em grande escala devido ao sucesso com fabricantes de computadores pela sua integração de recursos, nunca foram populares entre os consumidores finais.


Em 2003 a ATI lançou a linha 9100 IGP. Pela primeira vez um chipset completo, incluindo uma south bridge ATI funcional, IXP250, apesar de ter poucos recursos. Baseado no processador gráfico Radeon 8500, possuía suporte aos recursos da API Direct3D 8.1.


A família Xpress 200 foi lançado pela ATI como uma solução compatível com Athlon 64 e Pentium 4 baseado no barramento PCI Express. Sua principal novidade era a compatibilidade com as funções definidas pelo padrão Direct3D 9, pela primeira vez implementadas em um chipset integrado.


Em 2006 foi lançada a linha Xpress 3200, cuja característica é a utilização de dois slots PCI Express x16 criados especificamente para uso em modo CrossFire, ao invés da divisão em dois slots x8 como na linha Xpress 200.




nVidia




NVIDIA (não é abreviatura, embora fosse grafada como nVidia, anteriormente) é uma empresa multinacional com sede em Santa Clara (Califórnia) que fabrica peças de computador, e é mais popularmente conhecida por sua série de placas de vídeo GeForce. Neste segmento, concorre diretamente com a empresa AMD (que adquiriu a empresa ATI Technologies), que produz a série de placas de vídeo Radeon.


Logótipo da nVidia


Produtos:


  • Chipsets para Placas de Vídeo e componentes gráficos para os videogames, Playstation 3 e Xbox 360.
  • Chipsets para Motherboards.
  • Softwares.


nVidia GeForce GTX 580


Aceleradores gráficos 3D:


  • NV1 - Primeiro chip gráfico da nVidia.
  • RIVA 128 e RIVA 128ZX - Primeiro processador gráfico a oferecer suporte a DirectX, nesta época em sua versão 5. Suporta também a primeira versão do OpenGL.
  • RIVA TNT, RIVA TNT2- Suporte a DirectX 6 e OpenGL 1. Foi a partir dessas placas de aceleração gráfica que a nVidia começou a dominar o segmento de processamento gráfico.
  • GeForce


nVidia SLI


Scalable Link Interface (SLI) é um método desenvolvido pela NVIDIA para unir duas (ou mais) placas de vídeo apresentando apenas uma única saída de vídeo. As placas de vídeo compartilham paralelamente o processamento de imagens, aumentando a velocidade de processamento ou a qualidade de imagem.






Uma implementação SLI requer além de duas placas compatíveis, uma placa-mãe com barramento PCI Express duplo, e drivers compatíveis. Além disso, para um desempenho optimizado é necessário um "perfil" de configuração para o jogo utilizado.


Foi anunciado em 28 de junho de 2004 e lançado em 17 de novembro do mesmo ano.


nVidia 8800 (SLI)


3DFx SLI


O termo SLI foi desenvolvido originalmente pela empresa 3Dfx - posteriormente comprada pela NVIDIA - como sigla para Scan-Line Interleave, que em termos gerais consistia no mesmo conceito; a utilização de placas de vídeo em paralelo para o aumento de desempenho.


Diferenças:


Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma das placas renderizava as linhas horizontais pares, enquanto a outra placa renderizava as linhas ímpares — o modo SLI adotado pela NVIDIA (e sua concorrente ATI em sua tecnologia equivalente) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). A popular série GeForce existe desde 1999. A partir dela, se tornou umas das líderes na criação de aceleradoras gráficas do mundo.

nVidia GeForce GT 540M
  • GeForce 256 - DirectX 7, OpenGL 1, transformação e renderização de luz por hardware. Introduziu o uso das memórias DDR.
  • GeForce 2 - DirectX 7, OpenGL 1
  • GeForce 3 - Shaders DirectX 8.0, OpenGL 1.5, contém uma arquitetura de memória otimizada
  • GeForce 4 - Essa série é dividida em GeForce 4 comum (DirectX 8.1, OpenGL 1.5) e em Geforce 4 MX, que usa o mesmo processador gráfico da série GeForce 2 (DirectX 7), contendo apenas um aumento na quantidade de memória interna.
  • GeForce FX - DirectX 9, OpenGL 1.5. Suporta o Shader 2.0 e a tecnologia CineFX 2.0, exclusivas dessa versão do DirectX. Foi criada mais tarde a série PCX, que inseria o novo barramento PCI-Express em algumas placas da série FX.
  • GeForce 6 - DirectX 9.0c, OpenGL 2.0. Traz Shader/CineFX 3.0, melhoramentos no consumo elétrico e a inserção da tecnologia SLI, que permite o uso de duas placas de vídeo ao mesmo tempo, aumento portanto o desempenho.
  • GeForce 7 - DirectX 9.0c, OpenGL 2.0. Contém também o Shader 3.0 e o SLI, mas desta vez traz suporte ao CineFX 4.0 e as novas tecnologias para anti-aliasing Transparency Supersampling (TSAA) e Transparency Multisampling (TMAA).
  • GeForce 8 - DirectX 10, OpenGL 2.0. Conta com suporte a memória GDDR4, Shader Model 4.0, nVidia® PureVideo™ e SLI. Lançadas em novembro de 2006, competem, em termos de gráficos, com os consoles da sétima geração (como o Playstation 3 e Xbox 360) e a família Radeon R600.
  • GeForce 9 - Essas placas podem chegar em resoluções de até 2560 X 1600 permitem jogos com alta definição. Tem suporte para a tecnologia PureVideo® HD que oferece extrema qualidade em filmes de HD DVD ou Blu-ray. Contem também suporte para HybridPower™* que oferece desempenho de vídeo excepcional e economia de energia.
  • GeForce GTX série 200 - São as mais poderosas placas de vídeo da nVidia™ (Alguns modelos perdendo para a Geforce 9800GX2, que são 2 GPUs da Geforce 9800 GT em uma unica placa que é internamente conectada por um cabo SLI flexivel e resfriada por um unico cooler no meio, e ainda tem suporte a quad SLI). Estas contem as mesmas inovações das placas de série 9, porém com algumas inovações como 2 GPUs trabalhando juntas (GTX295) aumentando ainda mais o desempenho e interfaces de 448 bits. A placa de video GeForce GTX 295 são duas GPUs da GeForce GTX 260, alncançando a incrível marca de 480 CUDA cores, comparados aos 240 da sua antecessora GTX 280.
  • Quadro Linha de placas de vídeo profissionais da nVidia. Otimizadas para uso em sistemas CAD e CAM, renderização 3D profissional e aceleração de programas como 3D Studio.
  • GoForce - Para PDAs e "smartphones"


No dia 26/03/2010, a nVidia lança oficialmente as GeForce GTX470 e GTX480, com uma nova arquitetura cujo codinome é Fermi, mas com desempenho pouco superior (Cerca de 10% a 15%) à concorrência, além de apresentarem um alto consumo elétrico e demandarem maior dissipação térmica para que a temperatura dos chips seja mantida a níveis aceitáveis.

Memórias

O primeiro chip de memória Ram foi lançado em 1970 pela Intel. O chip 1103 era um chip de memória DRAM (Dynamic Random Access Memory), tinha 1 kb de memória, 28 pinos e capacidade por cada ciclo de 8 bits por segundo.


FPM-RAM

No final dos anos 80 surgiu a FPM-RAM (Fast Page Mode Ram). Possuía 30 pinos,a sua velocidade de acesso era entre 25 e 33 MHz, e a sua capacidade por cada ciclo era de 8 e de 9 bits (paridade) por segundo.


FPM - RAM



Foram fabricadas com tempos de acesso de 70 ou 60 nanómetros por segundo. Foram muito populares em sistemas como os 486 e os primeiros Pentium. No final dos anos 90 estas memórias foram melhoradas, possuindo 72 pinos, a mesma velocidade de acesso, mas com a capacidade por cada ciclo de 32 e 36 (paridade) bits por segundo.


EDO-RAM

Em 1995 foi criada a EDO-RAM (Estendam Data Output Ram), fabricadas com rempos de acesso de 40 ou 30 nanómetros por segundo, era também capaz de enviar acções contíguas, mas direccionava a coluna que ia utilizar enquanto se lia a informação da coluna anterior, tendo como resultado uma eliminação de estados de espera, mantendo activo o buffer de saída até começar o próximo ciclo de leitura.


EDO-RAM
Estas memórias eram fabricadas com 168 pinos, com velocidades de acesso de 100 a 133 MHz, e com capacidade por cada ciclo de 64 bits por segundo.


SD-RAM

Mais tarde surgiu a SD-RAM (Single Data Rate Sincronous Dynamic Random Acess Memory). Estas memórias são fabricadas com 184 pinos, têm velocidades de acesso entre 100 e 200 MHz, e com capacidade de 64 bits por segundo por cada ciclo.



SD-RAM

DDR

Depois surgiram as memórias DDR (Double Data Rate Synchronous Dynamic Random Acess Memory) II, que foram uma evolução das SD-Ram, estes módulos são fabricados com 240 pinos, possuem velocidades de acesso entre 266 e 800 MHz, e têm de capacidade 64 bits por segundo por cada ciclo.


DDR
Foram também criadas as RDRAM (Rambus DRAM). Estas memórias são fabricadas com 184 pinos, possuem velocidades de acesso entre 400 e 1333 MHz, e têm de capacidade 16,32 ou 64 bits por segundo por cada ciclo.


DDR2 SDRAM


A DDR2 SDRAM ou DDR2 é uma evolução ao antigo padrão DDR SDRAM, conforme homologação da JEDEC.

 
DDR2-SDRAM


A nova tecnologia veio com a promessa de aumentar o desempenho, diminuir o consumo elétrico e o aquecimento, aumentar a densidade e minimizar a interferência eletromagnética (ruído). São esperados módulos de até 4GB de memória.





DDR3 SDRAM

Em engenharia electrónica, DDR3 SDRAM ou Taxa Dupla de Transferência Nível Três de Memória Síncrona Dinâmica de Acesso Aleatório é uma interface de memória de acesso randomizado – RAM (Random Acess Memory) – usada para o grande armazenamento de dados utilizados em computadores ou outros dispositivos eletrônicos. É uma das várias implementações de RAM síncrona e dinâmica (SDRAM, Syncronous Dynamic RAM), ou seja, trabalha sincronizada com os ciclos de clock da placa-mãe, sem tempo de espera.

DDR3 SDRAM


DDR3 SDRAM é uma melhoria sobre a tecnologia precedente DDR2 SDRAM. O primeiro benefício da DDR3 é a taxa de transferência duas vezes maior que a taxa da DDR2, de modo que permite taxas de barramento maiores, como também picos de transferência mais altos do que as memórias anteriores.
Não há redução significativa de latência (diferença de tempo entre o início de um evento e o momento em que seus efeitos tornam-se perceptíveis), já que isso não é uma característica da interface. Adicionalmente, o padrão DDR3 permite que um chip com capacidade entre 512 megabits e 8 gigabits use um módulo de memória de 16 gigabytes de maneira eficaz. Porém, cabe salientar que DDR3 é uma especificação de interface DRAM; ou seja, os atuais slots DRAM que armazenam os dados são iguais aos dos outros tipos de DRAM, e têm desempenho similar.






quarta-feira, 26 de janeiro de 2011

Monitores

O monitor é um dispositivo de saída do computador, cuja função é transmitir informação ao utilizador através da imagem, estimulando assim a visão.
Os monitores são classificados de acordo com a tecnologia de amostragem de vídeo utilizada na formação da imagem. Atualmente, essas tecnologias são duas: CRT e LCD. À superfície do monitor sobre a qual se projecta a imagem chamamos tela ou ecrã.


Monitores CRT


CRT (Cathodic Ray Tube), em inglês, sigla de (Tubo de raios catódicos) é o monitor "tradicional", em que o ecrã é repetidamente atingido por um feixe de electrões, que actuam no material fosforescente que a reveste, formando assim as imagens. Os monitores CRT utilizam uma tecnologia descoberta ainda no início do século, mas ao mesmo tempo incorporaram tantos avanços que é impossível não se surpreender com o nível de qualidade que alcançaram.


O canhão bombardeia uma a uma, as células de fósforo, sempre da esquerda para a direita e de cima para baixo. Ao bombardear a última célula ele volta à posição inicial e recomeça a varredura. O número de vezes por segundo que o canhão é capaz de bombardear a tela é chamada de taxa de actualização. Para que a imagem seja sólida o suficiente para não causar danos aos olhos a taxa de actualização deve ser de pelo menos 75 Hz (75 vezes por segundo).
Com menos que isto surge o flicker, que ocorre devido à perda de luminosidade das células de fósforo do monitor. Usando uma taxa de renovação de menos de 75Hz, o tempo que o feixe de electrões demora para passar é muito longo, fazendo com que células percam parte do seu brilho, sendo reacendidas bruscamente na próxima passagem do feixe de electrões. Isto faz com que as células pisquem, tornando a imagem instável. Esta instabilidade, além de desconfortável, faz muito mal aos olhos. Uma taxa de actualização de 75 Hz é considerada o mínimo para manter a saúde dos seus olhos, mas o ideal é utilizar 85 Hz ou mais.
A taxa de actualização do monitor depende da resolução utilizada. Um monitor de 15 polegadas recente é geralmente capaz de manter 85 Hz a 800x600 ou 75 Hz a 1024x768. Um monitor de 17 polegadas já é capaz de manter 85 Hz a 1024x768, enquanto alguns monitores de 17, como os da linha Flatron são capazes de manter 85 Hz a 1280 x 1024.


Um detalhe importante é que todos os monitores de CRT são analógicos, já que sinais eléctricos de diferentes intensidades controlam o movimento e a potência do feixe de electrões do monitor. Os monitores de LCD e outras tecnologias, como os OLED são totalmente digitais, já não possuem mais o problema do flicker, mas em compensação são bem mais caros.



Exemplo de um monitor CRT

Este tipo de monitor tem como principais vantagens:

  1. sua longa vida útil;
  2. baixo custo de fabricação;
  3. grande banda dinâmica de cores e contrastes;
  4. grande versatilidade (uma vez que pode funcionar em diversas resoluções, sem que ocorram grandes distorções na imagem).
As maiores desvantagens deste tipo de monitor são:


  1. suas dimensões (um monitor CRT de 20 polegadas pode ter até 50cm de profundidade e pesar mais de 20kg);
  2. o consumo elevado de energia;
  3. efeito de cintilação (flicker);
  4. a possibilidade de emitir radiação que está fora do espectro luminoso (raios x), prejudicial à saúde no caso de longos períodos de exposição. Este último problema é mais frequentemente constatado em monitores e televisores antigos e desregulados, já que actualmente a composição do vidro que reveste a tela dos monitores detém a emissão dessas radiações.
  5. Distorção geométrica.
Monitores LCD


LCD (Liquid Cristal Display, em inglês, sigla de tela de cristal líquido) é um tipo mais moderno de monitor. Nele, o ecrã é composto por cristais que são polarizados para gerar as cores.


Um monitor LCD de 14 polegadas possui uma área de exibição maior do que um CRT de 15 polegadas, enquanto que num LCD de 15 polegadas a área é quase equivalente a um monitor tradicional de 17 polegadas.
Os monitores de cristal líquido também gastam menos electricidade. Enquanto um monitor tradicional de 14 polegadas consome por volta de 90 W, e um de 17 polegadas por volta de 110 W, um LCD de 15" dificilmente ultrapassa a marca dos 35W. Outra vantagem é que estes monitores emitem uma quantidade muito menor de radiação nociva (praticamente nenhuma em alguns modelos) o que os torna especialmente atraentes para quem fica muito tempo em frente ao monitor diariamente.


Finalmente, nos monitores de cristal líquido não existe flicker, pois ao invés da imagem ser formada pela acção do feixe de electrões, como nos monitores CRT, cada ponto da tela actua como uma pequena lâmpada, que muda a sua tonalidade para formar a imagem. O termo "refresh rate" não se aplica ao monitores de cristal líquido, pois neles a imagem é sempre perfeita.







Exemplo de um monitor LCD

Tem como vantagens:
  1. O baixo consumo de energia;
  2. As dimensões reduzidas;
  3. A não-emissão de radiações nocivas;
  4. A capacidade de formar uma imagem praticamente perfeita, estável, sem cintilação, que cansa menos a visão - desde que esteja a funcionar na resolução nativa;
As maiores desvantagens são:
  1. o maior custo de fabrico (o que, porém, tenderá a impactar cada vez menos no custo final do produto, à medida que o mesmo se for popularizando);
  2. o facto de que, ao trabalhar numa resolução diferente daquela para a qual foi projectado, o monitor LCD utiliza vários artifícios de composição de imagem que acabam por degradar a qualidade final da mesma;
  3. o "preto" que ele cria emite um pouco de luz, o que confere à imagem um aspecto acinzentado ou azulado, não apresentando desta forma um preto real similar aos oferecidos nos monitores CRTs;
  4. o contraste não é muito bom como nos monitores CRT ou de Plasma, assim a imagem fica com menos definição, este aspecto vem sendo atenuado com os novos painéis com iluminação por leds e a fidelidade de cores nos monitores que usam painéis do tipo TN são de fraca qualidade, os com paineis IPS, mais raros e bem mais caros, têm melhor fidelidade de cores, chegando mais próximo da qualidade de imagem dos CRTs;
  5. um facto não divulgado pelos fabricantes: se o cristal líquido da tela do monitor for danificado e ficar exposto ao ar, pode emitir alguns compostos tóxicos, tais como o óxido de zinco e o sulfeto de zinco; este será um problema quando alguns dos monitores fabricados hoje em dia chegarem ao fim de sua vida útil (estimada em 20 anos).
Apesar das desvantagens supra mencionadas, a venda de monitores e televisores LCD tem vinda a crescer consideravelmente.