Há algum tempo a NVIDIA ajudou a construir um supercomputador no laboratório de Oak Ridge nos Estados Unidos. O TITAN carregava, na época de sua construção, 19 mil aceleradores Tesla, e isso fez dele o supercomputador mais poderoso da época.

Pouco tempo depois, a empresa utilizou o mesmo chip presente nos aceleradores Tesla para dar vida a uma de suas placas de vídeo mais poderosas: a GeForce GTX Titan, que chegou ao mercado em fevereiro de 2013.

Depois dela vieram mais dois modelos: a GeForce GTX Titan Black, que é uma revisão do modelo anterior, e a GeForce GTX Titan Z, que utiliza duas GPUs Titan Black na mesma PCB.

Agora é a vez da quarta geração da Titan. Desta vez, a arquitetura Kepler ficou no passado e o novo modelo ostenta a nova arquitetura Maxwell. O chip encontrado nela é o que há de mais avançado em termos de tecnologia, fazendo dessa a placa de vídeo single chip mais poderosa do mundo, até o momento.

Especificações

Design quase perfeito

Visualmente a NVIDIA não mexeu muito no design de referência de suas GPUs top de linha. A Titan X apresenta o mesmo visual da primeira Titan, incluindo a carcaça feita com alumínio e a janela de policarbonato que mostra a câmara de vapor. A diferença principal é a cor preta, e o nome da placa escrito em letras cromadas.

Nesse ponto, a NVIDIA perdeu uma ótima oportunidade de deixar o visual da placa ainda mais destruidor: as imagens de divulgação traziam o blower com uma iluminação central exclusiva — possivelmente um trabalho da equipe de design para deixar as imagens de divulgação mais atraentes.

O resultado foi que esse visual chamou bastante a atenção e deu um toque todo especial ao design da Titan X. Infelizmente, era somente um efeito de tratamento de imagem, já que a placa de vídeo não possui esse detalhe, para tristeza de muita gente.

A única parte que acende é o letreiro “GeForce GTX”, como nas placas de vídeo anteriores. A nós, resta torcer para que a NVIDIA aproveite essa oportunidade e inclua a iluminação na sua próxima placa de vídeo.

Embaixo da carcaça de alumínio existe a câmara de vapor que, combinada com um dissipador de alumínio ajuda a remover o calor do chip GM200. O blower é o responsável por expulsar o ar quente para fora do computador através da parte traseira da placa.

Assim como nas placas de referência anteriores, esse cooler é extremamente silencioso e mesmo quando está em plena capacidade não chega a fazer muito barulho. Isso é um ponto positivo, principalmente se você pensa em realizar overclocks nessa placa de vídeo.

Ao contrário da GeForce GTX 980 de referência, a Titan X não possui uma backplate dedicada. Segundo a NVIDIA, a ideia é garantir o maior fluxo de ar possível em sistemas que tenham mais de uma placa de vídeo instaladas no sistema. Como elas ficam muito próximas umas das outras, o fluxo de ar poderia ficar prejudicado com a backplate.

Essa peça faz um pouco de falta na hora de ajudar a dissipar o calor dos chips de memória que ficam na parte de trás da PCB, que trabalham em temperaturas que variam de 90 °C a 100 °C graus em momentos de uso intenso. Porém, isso não interfere no funcionamento da GPU que durante todos os nossos extensivos testes permaneceu estável.

Em termos de saídas de vídeo, essa placa oferece uma saída HDMI, três DisplayPort e uma saída DVI. A ideia é permitir que você posa usar até três monitores com G-Sync em apenas uma placa de vídeo.

Na parte superior podem ser vistas as duas portas para conexão SLI e os dois conectores de energia, sendo um com seis e outro com oito pinos. No geral, o visual robusto construído pela NVIDIA pode ser percebido quando pegamos a placa na mão. A construção é incrivelmente sólida.

Apresentando: Maxwell GM200

A NVIDIA apresentou a arquitetura Maxwell no início do ano passado com a GTX 750 Ti. Depois dela chegou a GTX 980 trazendo o GM204 e todo o poder do Maxwell até então. Desta vez, as coisas mudam de figura e o nível aumenta ainda mais.

A GeForce GTX Titan X traz o GM200, uma nova GPU que é maior em que a anterior em quase todos os aspectos. O novo chip traz 3.072 núcleos CUDA divididos em 6 clusters de processamento gráfico e 24 unidades SMM (a GTX 980 possuía 4 clusters, totalizando 16 SMM).

Um dos segredos da eficiência do Maxwell é o controlador de memória integrado a cada um dos SMM. Além disso, cada um dos clusters possui um rasterizador integrado, tornando o processamento dos dados mais eficiente.

A memória é dividida em seis controladores de memória de 64-bit. Com isso, os 12 GB de RAM rodam através de uma interface de 384-bit a um Clock de 7.010 MHz, o que resulta em uma banda efetiva de 336,5 GB por segundo.

Outro ponto que colabora para a eficiência do Maxwell é a lógica de processamento das informações. O número de redundâncias internas na transferência dos dados diminuiu consideravelmente (em relação ao Kepler) e isso, consequentemente, também reduziu o consumo energético deixando tudo mais rápido.

Os pares de blocos de processamento agora compartilham quatro unidades de textura e cache de textura. O cache L1 também foi combinado com a função de cache de textura. A memória é dividida em sete unidades e é compartilhada entre os quatro blocos.

No Kepler (geração 600 e 700), um único controlador lógico era responsável por gerenciar e enviar instruções para blocos com 192 núcleos CUDA. No Maxwell, esse bloco foi dividido em quatro; desse modo, existem quatro conjuntos de 32 núcleos CUDA onde antes existia apenas um. Além disso, cada um deles possui o seu próprio controlador lógico.

Essa nova concepção garante que cada SMM seja significativamente menor, mesmo sendo capaz de entregar até 90% do desempenho de uma unidade SM presente na arquitetura Kepler. Essa área menor permite que mais SMMs sejam implementados dentro de uma única GPU. Isso garante 25% a mais de pico de textura, 1,7 vez mais núcleos CUDA e cerca de 2,3 vezes mais desempenho de shader.

Overclock

A arquitetura Maxwell ganhou notoriedade pela sua eficiência energética, que permite overclocks mais altos. A Titan X não foge à regra e também já é preparada para oferecer modificações mais poderosas, mesmo com o cooler de referência.

A GeForce GTX Titan X de referência conta com 6 fases de força para a GPU e 2 fases dedicadas especialmente para alimentar os 12 GB de memória GDDR5. Segundo a empresa, isso garante até 275 W de potência para quem quiser setar o power target em 110% — e deixar a placa ainda mais rápida.

A placa de referência conta com capacitores polarizados para reduzir as interferências. Além disso, o sistema de refrigeração foi ligeiramente modificado para permitir que esses componentes possam receber mais ar que nas placas de referência lançadas anteriormente.

A NVIDIA garante que conseguiu elevar o clock de 1.000 MHz para até 1.400 MHz em testes realizados com a Titan X. É um salto e tanto para o modelo.

VXGI – Voxel Global Illumination

A iluminação é um dos recursos mais fundamentais na hora de garantir o realismo nas cenas. A NVIDIA sabe disso e lançou junto com a GTX 980 o VXGI, sigla para Voxel Global Illumination. A nova tecnologia pode aumentar a capacidade da GPU na hora de processar efeitos de iluminação global.

Para entender como o sistema trabalha, antes é preciso entender como os voxels funcionam: enquanto um pixel representa um ponto 2D no espaço, um voxel representa um pequeno cubo do espaço 3D. Para realizar a iluminação global, é preciso calcular a luz que é emitida por todos os objetos na cena, e não apenas as luzes diretas.

Para que isso seja feito, toda a cena é preenchida com pequenos cubos chamados voxels. Esse processo é chamado Voxelização, que é o ato de determinar o conteúdo da cena em cada voxel. Ele é análogo ao processo de rasterização, que é a determinação do valor de uma cena em dadas coordenadas 2D.

Veja na ilustração a seguir como esse processo acontece:

No VXGI, são armazenadas duas informações em cada voxel: a) a fração de voxel que contém um objeto real; e b) por qualquer voxel que contém um objeto, as propriedades da luz que vêm do objeto (ou seja, saltando para fora dele a partir das fontes de luz primária), incluindo direção e intensidade.

Assim que a fase de cobertura dos voxels termina, são armazenadas informações em cada voxel que descreve como a geometria física responde à luz. Isso inclui a codificação de opacidade da matéria e propriedades emissivas e reflexivas. Em seguida, a cena é checada novamente, desta vez verificando-se a iluminação direta em cada voxel não vazio. A cena é renderizada várias vezes a partir de pontos de vista de diferentes pontos de iluminação, capturando a luz que atinge cada voxel. O processo de voxelização fornece dados sobre toda a informação de luz presente na cena.

O último passo é a rasterização da cena, como ela é feita tradicionalmente. A diferença agora é que existe muito mais dados para serem utilizados nos cálculos juntamente com outras estruturas, como mapa de sombras.

De acordo com a NVIDIA, essa tecnologia pode ser escalonada para trabalhar em diferentes tipos de hardware, incluindo GPUs Kepler e até mesmo consoles de jogos. A vantagem do Maxwell é que ele já foi feito pensando nesse recurso, podendo aproveitar muito mais as novas funções.

O VXGI já está presente na Unreal Engine 4 e, em breve, deverá estar nos principais motores gráficos disponíveis no mercado.

DSR – Dynamic Super Resolution

A super-resolução dinâmica não é exatamente uma novidade. Existem diversas ferramentas não oficiais que podem fazer downsampling nas imagens, mas nada se iguala ao suporte oficial por parte do fabricante.

O que o DSR pode fazer é aumentar significativamente a qualidade das imagens. Para entender como ele funciona, pense em um monitor Full HD. Agora, imagine uma imagem em resolução inferior ao do monitor. Para preencher toda a tela, a imagem precisará ser esticada, deixando as imperfeições mais aparentes.

O downsampling funciona de forma parecida, só que ao contrário. Em vez de esticar uma imagem pequena para preencher a tela, ele espreme uma imagem grande para que ela possa ser exibida em um monitor com resolução menor à da imagem gerada, eliminando quase que completamente as imperfeições. Isso é especialmente útil para quem pretende rodar jogos com qualidade 4K em monitores Full HD.

Para completar, uma série de filtros especiais são aplicados às imagens com o objetivo de remover quaisquer possíveis serrilhados e/ou artefatos que restarem nas imagens. A Nokia usa um processo semelhante em alguns celulares que utilizam a tecnologia PureView, como o Lumia 930. Lá, as fotos são batidas com qualidade 20 MP e depois reduzidas para 5 MP, por exemplo.

A compatibilidade é garantida pelo GeForce Experience, que configura os jogos e todos os detalhes para que você não precise se preocupar com nada. Basta selecionar o game desejado e mudar a resolução.

Apesar de a NVIDIA focar o seu marketing no 4K, é possível utilizar resoluções menores, como o 2K ou outros valores compatíveis com a sua tela, pois o sistema oferece opções diferentes de configuração para que você possa encontrar o perfeito equilíbrio entre desempenho e qualidade visual. E isso é bastante importante, pois rodar jogos nessas resoluções exige muito do hardware.

Nos testes realizados com a GeForce GTX Titan X, obtivemos resultados satisfatórios com o DSR. A placa de vídeo deu conta de rodas os principais games da atualidade em resolução 4K com todos os detalhes configurados para o máximo com taxas de FPS entre 30 e 60.

Multi Sampling Anti-aliasing

O MSAA ou Multi Sampling Anti-aliasing é o método antisserrilhados mais comum hoje em dia. Essa técnica oferece um ótimo resultado visual, mas pode pesar um pouco em resoluções mais altas — principalmente em um hardware menos potente.

Para tentar resolver um pouco essa situação, a NVIDIA está trazendo o MFAA, que pode oferecer a mesma qualidade visual do MSAA, mas não pesa tanto na hora do processamento. Para fazer isso, o sistema aplica dois tipos diferentes de AA na imagem. Em seguida, as duas mescladas para garantir um efeito próximo ao do MSAA, mas com uma penalidade menor no desempenho.

PhysX e o utros recursos NVIDIA

Essa placa de vídeo também possui todos os recursos exclusivos desenvolvidos pela NVIDIA. Entre eles está o PhysX, um sistema que realiza os cálculos de física para trazer aos jogos efeitos mais realistas. Roupas, partículas e iluminação podem ficar muito mais detalhadas com o PhysX ativado.

Uma das novidades apresentadas pela empresa durante a GDC 2015 é que a partir de agora o código fonte do PhysX foi liberado para os desenvolvedores que quiserem implementar a versão acelerada por CPU do PhysX 3.3.3 em seus sistemas. Isso vai ampliar o desenvolvimento do sistema e permitir que mais motores gráficos tragam suporte ao PhysX.

PhysX garante mais detalhes aos games.

Além do PhysX temos outros recursos avançados de antialiasing como o FXAA e o TXAA, capazes de garantir uma ótima qualidade visual sem comprometer muito o desempenho do sistema como um todo. O Adaptive V-Sync sincroniza as imagens com a frequência da tela para garantir a fluidez nas animações sempre que a placa tem poder de sobra. O efeito é ativado e desativado em tempo real para garantir um bom equilíbrio entre desempenho e qualidade visual.

NVIDIA G-Sync

O G-Sync foi apresentado há pouco tempo pela NVIDIA. Essa nova tecnologia pretende substituir o antigo V-Sync e acabar de uma vez por todas com o screen tearing e o input lag, problemas visuais que atrapalham na hora da diversão.

O novo recurso funciona forma inteligente: com o G-Sync ativado, todas as imagens são exibidas na tela no momento em que elas são renderizadas pela GPU, resultando em animações muito mais fluentes.

O que acontece hoje em dia é assim: a placa de vídeo processa as imagens e envia para o monitor, que exibe os quadros em taxas fixas (de 60 Hz, por exemplo). A GPU trabalha com taxas variáveis de renderização, pois vez ou outra os games podem apresentar cenas mais complexas. Essa diferença de tempo é o que causa os problemas.

A proposta do G-Sync é aproximar a taxa de renderização da GPU e do monitor, eliminando completamente os problemas de exibição de imagem. Quem já testou afirma que é difícil voltar para o modelo anterior, tamanho é o benefício proporcionado pela nova tecnologia.

Vale lembrar que para que o G-Sync possa ser utilizado, é preciso ter um monitor compatível, já que o hardware compatível com o sistema precisa estar integrado no próprio monitor.

Realidade virtual na GeForce GTX

A realidade virtual não é mais um sonho e está cada dia mais perto do nosso dia a dia. Inúmeras empresas já embarcaram no setor desenvolvendo alternativas viáveis para os jogadores, lideradas pela Oculus VR que deve trazer para o mercado a versão comercial do Rift ainda este ano.

Para ajudar a melhorar as experiências com a realidade virtual, a NVIDIA está trabalhando ao lado dos fabricantes para diminuir alguns problemas, como a latência das imagens exibidas na tela. Esse fator está ligado diretamente ao motion sickness que é um dos principais problemas da realidade virtual atualmente.

Para melhorar esse cenário, a NVIDIA traz o VR Direct, que oferece o recurso Asynchronous Time Warp. Nesse sistema, a última cena renderizada pela GPU é alterada com base na informação mais recente da posição da cabeça a partir do sensor VR.

Isso economiza tempo (e diminui a latência) já que a GPU não precisa recriar toda a cena do zero. A NVIDIA oferece suporte a nível de driver para definir a prioridade do contexto, permitindo que os desenvolvedores implementem o recurso em seus games e aplicativos.

Outro problema que pode afetar o desempenho em aplicações de realidade virtual é o desempenho. Se houver queda na taxa de quadros, a experiência pode ser perdida. Para minimizar esse problema a NVIDIA implementou um recurso chamado VR SLI. Isso significa que em um PC com duas Titan X em SLI, cada uma das placas de vídeo pode ser designada para gerenciar a imagem enviada para um dos olhos, diminuindo latência e garantindo uma experiência mais rica.

Empresas como Epix, Crytek, Valve e Oculus já estão testando a novidade e devem trazer suporte à função em breve.

Testes de desempenho

Como os testes são feitos

Todos os produtos testados no TecMundo são mantidos em suas configurações originais, ou seja, com os padrões de fábrica. Algumas placas de vídeo possuem chaves físicas e, ou configurações especiais para aumentar o desempenho, mas sempre que utilizamos esses recursos, identificamos nos testes.

No caso das placas de vídeo com arquitetura Maxwell em que a alteração do Power Limit pode trazer um razoável ganho de desempenho, esse recurso não é alterado durante os testes a não ser em condições especiais e, ou, se o fabricante já enviar o produto com esse parâmetro alterado. Além disso, a temperatura limite da GPU também é mantida no padrão fornecido pelo fabricante.

Os drivers utilizados durante os testes sempre são a última versão estável disponível. A única alteração feita é a desativação do V-Sync para não limitar a taxa de quadros por segundo.

Máquina de testes

  • CPU: Intel Core i7-3930K @ 3.800 MHz;
  • Placa-mãe: EVGA X79 SLI;
  • Memória: 16 GB RAM quad-channel G. Skill Sniper DDR3 2133;
  • SSD: Kingston HyperX 3K 480 GB;
  • HD: 3 TB Seagate ST3000M001;
  • Fonte: Corsair AX1500i.

Jogos

Batman: Arkham Origins

Batman: Arkham Origins utiliza uma versão modificada da Unreal Engine 3 e DirectX 11 aliados a diversos efeitos especiais para garantir o visual. O game também aproveita o PhysX da NVIDIA para trazer recursos de física mais realistas.

Battlefield 4

Battlefield 4 utiliza a nova engine Frostbite 3 para trazer efeitos especiais e ambientes maiores e mais detalhados, incluindo muitas partículas, texturas de alta resolução e tessellation. Tudo isso através do DirectX 11.

BioShock Infinite

O terceiro BioShock utiliza uma versão altamente modificada da Unreal Engine 3 e foi refeito completamente do zero para garantir uma ótima experiência visual. O mundo do jogo é grande e repleto de efeitos visuais.

Crysis 3

O motor de Crysis 3 é o CryEngine 3, que desta vez apresenta uma série de novos recursos gráficos, incluindo fumaça e luz volumétricas e vegetação e tecidos dinâmicos, além de texturas em altíssima resolução. Para que tudo isso seja possível, o game roda exclusivamente com o DirectX 11.

GRID 2

GRID 2 utiliza a engine EGO 3.0, desenvolvida pela Codemasters e presente em diversos games de corrida da desenvolvedora. O jogo apresenta efeitos visuais impressionantes, incluindo batidas, efeitos de fumaça, luz e sombras.

Metro: Last Light

Metro: Last Light aproveita o poder das GPUs modernas para trazer gráficos excelentes, texturas em alta definição e muita destruição com efeitos especiais incríveis. O game é construído com a engine 4A e também é compatível com o PhysX, da NVIDIA.

Total War: Rome 2

Total War: Rome 2 é um game de estratégia que coloca centenas de personagens simultaneamente no mesmo campo de batalha: cenários enormes e repletos de detalhes, como rios, pedras e vegetação, precisam de uma máquina potente para serem renderizados com perfeição.

Tomb Raider

O reboot chegou com diversas novidades em relação aos games anteriores da série. O mundo aberto possui muitos lugares para serem explorados, e o título trabalha com texturas em alta definição e o recurso TressFX, que garante à protagonista do jogo cabelos incrivelmente detalhados.

Teste em jogos 4K

Sintéticos

3DMark

O 3D Mark é, talvez, o mais conhecido software de benchmark do mercado. No mundo todo, pessoas utilizam essa ferramenta para medir o desempenho de suas máquinas. A versão que usamos é dividida em três categorias, e cada uma delas apresenta um nível de complexidade diferente.

Valley Benchmark

O Valley Benchmark utiliza a Unigine para testar os limites do hardware. O software mostra uma região montanhosa com uma enorme quantidade de árvores e plantas de variadas espécies em um terreno de 64 milhões de metros quadrados. O Valley também exibe efeitos de luz e variações climáticas, colocando o poder das placas de vídeo à prova.

Heaven Benchmark

O Heaven Benchmark foi desenvolvido para explorar todos os recursos das placas de vídeo, testando os limites do hardware em situações específicas. O teste é baseado no motor gráfico Unigine e utiliza o que há de mais moderno em sistema de iluminação, física e tessellation para determinar o poder da placa de vídeo.

Computacional

Civilization 5

Civilization 5 oferece uma ferramenta de benchmarks que utiliza o DirectCompute para calcular a taxa de descompressão das texturas do jogo. Quanto mais quadros por segundo o teste apresentar, melhor é a GPU.

Folding @ Home

O FAHBench é um benchmark que simula os cálculos do Folding @ Home, a iniciativa de pesquisa em conjunto via internet que tem o objetivo de auxiliar na descoberta de cura para doenças como Alzheimer e Parkinson. O aplicativo utiliza o OpenCL para calcular os dados.

Luxmark 2.0

O Luxmark pertence à suíte gráfica LuxRender. O que esse teste faz é simular uma série de efeitos de ray tracing através da linguagem OpenCL.

Temperatura e overclocks

A NVIDIA travou a temperatura limite da GeForce GTX Titan X em 83 °C — identificada no gráfico pela linha mais escura. Isso significa que o clock da GPU pode aumentar livremente até atingir esse limite (ou um pouco mais). Durante os testes, percebemos que a GPU ficou a maior parte do tempo abaixo desse valor, com raros picos de 85 °C.

As informações de temperatura e de frequêcias vistas aqui são coletadas durante a execução de todos os testes do 3DMark, que visa simular diferentes cenários de utilização. Os picos ocorrem quando a placa está sendo bastante exigida, já as quedas ocorrem em momentos de baixa carga sobre a GPU, como carregamentos e transições entre as cenas.

Nesse mesmo período o clock também sofreu variações. Como sabemos, não existe um limite fixo para esse parâmetro das placas da NVIDIA. A mudança ocorre dinamicamente com base em diversos atributos, entre eles, a energia disponível e o limite térmico. Durante os testes, a frequência atingiu o seu ápice nos 1.190 MHz.

De acordo com os dados registrados pelo software GPU-Z, o clock foi limitado, na maioria das vezes, pela temperatura e, em segundo lugar, pelo power limit.

Consumo energético

Durante os testes também realizamos algumas medições no consumo de energia com a ajuda de um dispositivo chamado Kill a Watt, que mede o consumo total da máquina, ou seja, quanto ela está “puxando” da tomada. As medições são realizadas em quatro momentos distintos:

  • Ocioso: máquina ligada, mas sem nenhum aplicativo em atividade;
  • Filme: filme em qualidade Full HD rodando em tela cheia;
  • 3DMark FireStrike Extreme: simula o uso normal da máquina em jogos;
  • FurMark: consumo extremo de energia, acima dos padrões normais.

Vale a pena?

A GeForce GTX Titan X é, sem dúvidas, a placa de vídeo single chip mais poderosa da atualidade. Ela apresenta recursos de ponta, um caminhão de memória e um desempenho impressionante, que deixa não só a GTX 980 no chinelo como também deixa a Radeon R9 290X comendo poeira.

A arquitetura Maxwell mostra todo o seu potencial na Titan X, unindo desempenho e eficiência energética. O chip possui uma arquitetura semelhante ao encontrado na GTX 980, mas é substancialmente maior. Tudo isso com a mesma litografia de 28 nm.

Alguns pontos deixaram a desejar no modelo de referência, como a falta da iluminação no blower e a falta de um backplate para ajudar na dissipação de calor dos chips de memória. Certamente a presença dessa peça passaria mais confiança no uso da placa.

Seguindo o costume da linha Titan, essa é uma placa de vídeo para poucos. Quem quiser investir nela não vai pagar barato, mas vai ter o melhor desempenho possível nos jogos por um bom tempo. Mas lembrando: em configurações single chip. Investindo quase o mesmo valor você consegue colocar duas GTX 980 em SLI e conseguir um desempenho superior.

Dificilmente alguém que procura uma placa de vídeo apenas para jogos precisa de tanta potência assim. Contudo, quem busca estar sempre um passo à frente vai encontrar na Titan X tudo o que precisa para deixar os amigos morrendo de inveja.

Nos Estados Unidos, o preço oficial da Titan X é de US$ 999 (o equivalente a R$ 3.260, sem impostos).

Cupons de desconto TecMundo: