(Fonte da imagem: Ronaldo Buassali)

Antes de tudo, é preciso entender o que é isso. Overclock significa aumentar a frequência de operação dos componentes acima dos padrões definidos em fábrica. Esse número é definido por diversos fatores: processo de fabricação, qualidade dos “wafers” que deram origem aos chips, entre outras variantes. Trabalhar com os componentes acima da frequência original geralmente afeta a estabilidade do sistema e exige algumas manobras para manter o sistema estável.

Mas por que aumentar a frequência de trabalho? O que significa frequência exatamente? A frequência é medida em hertz, ou ciclos por segundo e, basicamente, indica quantas operações o processador pode fazer ao mesmo tempo. Ou seja, quanto mais ciclos de trabalho, mais rápido as tarefas vão ser executadas.

E por que fazer overclock? Os processadores são peças limitadas, ou seja, eles possuem um número específico de transistores em seu interior. Não importa o processo de construção: é impossível abrir uma CPU e adicionar mais transistores em seu interior. Contudo, é possível fazer esse dispositivo funcionar de forma mais eficiente; basta fazer com que ele trabalhe mais rápido. E isso é feito por meio do overclock, ou seja, aumentando o número de ciclos.

Mas o overclock não é feito somente por aqueles que querem aumentar a capacidade de seus computadores sem gastar dinheiro. Hoje em dia essa atividade tornou-se profissional e os overclockers mais famosos viajam pelo mundo mostrando suas habilidades.

Diversos campeonatos colocam os competidores para ver quem consegue empurrar o hardware até os seus limites — e muitas vezes além disso. Para isso, são utilizadas ferramentas, modificações, nitrogênio líquido e às vezes um pouco de loucura. Afinal de contas, é preciso ter coragem para “fritar” um processador de mais de R$ 2 mil reais ou uma placa de vídeo de R$ 4 mil reais em uma competição.

Neste artigo, vamos conhecer um pouco da história do overclock e aprender um pouco sobre a evolução dos processadores e dessa atividade.

Um pouco de história: overclock e botão turbo

O overclock não é exatamente novo. Essa atividade é quase tão antiga quanto os próprios PCs e quem iniciou o processo foram os próprios fabricantes. Em 1983, a IBM lançou um processador rodando a 4,7 MHz. A escolha da empresa foi para manter a estabilidade do sistema. Contudo, logo outros montadores trataram de aumentar o clock daquele processador para 10 MHz, e a batalha das frequências teve início.

Naquele tempo era preciso um pouco de trabalho para se aumentar a frequência da CPU, pois era preciso trocar o cristal de quartz que regulava a clock. Contudo, nessa época o hardware dos PCs era inteiramente integrado, e aumentar a frequência da CPU implicava no aumento da frequência de praticamente todos os dispositivos.

Isso afetava alguns aplicativos — principalmente games — que não eram preparados para rodar em uma máquina com overclock porque dependiam diretamente do processador para regular a velocidade. Um jogo de corrida feito para rodar em uma CPU de 33 MHz rodando em uma de 66 MHz, por exemplo, poderia rodar mais rápido que deveria, o que acabava tornando a jogabilidade quase impossível.

O místico botão turbo. (Fonte da imagem: Reprodução/Wikimedia)

O aumento da frequência dos processadores tanto por overclock quanto pela evolução natural acabou deixando uma série de aplicativos sem funcionar direito, o que levou os engenheiros à criação de um “botão turbo” nas máquinas. Esse botão foi, por muito tempo, uma ferramenta quase “mística” de desempenho, já que algumas pessoas juravam que bastava pressioná-lo para deixar o computador mais rápido.

Apesar de isso ser verdade, curiosamente a função do turbo não era deixar a máquina mais rápida, e sim mais lenta (underclock – a frequência da CPU diminuía) para que os aplicativos mais antigos pudessem rodar sem problemas.

Nos computadores mais modernos o “timing” dos aplicativos é virtual, e o botão turbo desapareceu para sempre.

A era do overclock "fácil"

Na época dos processadores Intel 486, era normal que a CPU rodasse na mesma frequência da placa-mãe e dos demais componentes do sistema. Isso incluía o cache L2 (que na época ficava na própria placa-mãe), slot PCI, memória, entre outros que rodavam a 33 MHz. O problema é que isso acabou se tornando um gargalo para o processador, o qual precisava de mais espaço para crescer.

Foi então que a Intel trouxe o 486 DX2 66. O sufixo 2 não é apenas um detalhe: isso significa que a CPU podia trabalhar com uma frequência duas vezes maior que o restante do sistema, e foi assim que surgiu o multiplicador de clock.

O modelo seguinte foi o 486 DX4 100, que na verdade trazia um multiplicador triplo (3 x 33 MHz), mas que acabou virando um 4 pelo bem do marketing da Intel. Logo em seguida surgiu o Pentium, e o multiplicador tornou-se um padrão nos sistemas.

(Fonte da imagem: Reprodução/Electronlibraries Collection)

Com isso, passamos a ter duas velocidades para considerar: o clock do processador e o clock da bus. A velocidade do processador é resultado da bus vezes o multiplicador. A Intel decidiu trabalhar com uma bus de 66 MHz nesses sistemas — garantindo assim, mais desempenho.

O processo de ativação dos multiplicadores era manual nesses modelos, ou seja, para definir a frequência do processador era preciso alterar jumpers físicos na placa-mãe. Desse modo, quem quisesse fazer um overclock do multiplicador precisava apenas mudar o jumper de lugar para transformar o Pentium 100 em um Pentium 133, por exemplo. É claro que essa prática era perigosa, pois nem sempre os processadores aguentavam trabalhar acima da frequência e também não existiam sistemas de proteção que derrubavam o sistema em caso de superaquecimento.

O processo de fabricação dos chips da Intel era controlado para evitar problemas, ou seja, depois de fabricadas, as CPUs eram testadas. A empresa subia a frequência até encontrar o ponto estável, e marcava o clock um pouco abaixo para evitar problemas. Por exemplo: um recém-fabricado Pentium rodava estável a 120 MHz e apresentava problemas a 133 MHz. Esse chip, então, era marcado em 100 MHz para ser vendido. Essa estratégia era para garantir uma margem de folga e evitar problemas com o retorno de peças defeituosas.

O problema é que algumas empresas sabiam disso, e passaram a comercializar chips acima da frequência original. Elas compravam processadores pelo preço de 100 MHz e vendiam pelo preço de 120 MHz. É claro que alguns modelos apresentavam problemas, e quem pagava o pato era a Intel.

(Fonte da imagem: Reprodução/Wikimedia)

Para evitar esse tipo de situação, surgiu a trava de multiplicador, que permitia que o chip funcionasse apenas no clock-padrão. Isso atrapalhou um pouco a vida dos overclockers, até que alguém percebeu que apenas o multiplicador estava bloqueado, enquanto a bus ainda poderia ser aumentada. Como a frequência da CPU é resultado da multiplicação do clock da bus, o overclock evoluiu.

A trava de multiplicador impediu que pessoas mais “normais” realizassem overclocks, mas não impediu os profissionais. Alguns processadores podiam ter o seu multiplicador destravado com a realização de uma “ponte” entre dois componentes do chip. Essa ponte algumas vezes era feita com soldas, outras vezes com um simples risco de lápis. Essa última era comum em alguns processadores AMD Atlhon Thunderbird, que traziam o die da CPU exposto.

A lenda chamada Celeron 300A

Foi nessa época que a AMD começou a ameaçar o trono da Intel oferecendo processadores com um desempenho igual ou superior a preços mais competitivos. O reinado do Pentium II estava ameaçado e, para competir de igual com a concorrente, a empresa lançou o Celeron. O processador era basicamente um Pentium II sem o cache L2, o que o deixava mais barato, mas muito mais lento.

Felizmente alguém descobriu que o Celeron 266 (4 x 66) poderia ter a sua bus aumentada de 66 MHz para 100 MHz sem problemas, resultando em uma CPU de 400 MHz (4 x 100), o que fez muitos mudarem a visão que tinham do Celeron. 

Enquanto isso, o Pentium II 266 não podia receber um overclock desse tamanho e a resposta estava no cache L2 — ou melhor, na ausência dele. No caso do Pentium II, o cache — que era externo — havia sido desenvolvido para funcionar na mesma frequência do núcleo da CPU e isso impedia overclocks tão ousados quanto no Celeron. Como esse item era inexistente no Celeron, não havia nada que segurasse o aumento das frequências.

(Fonte da imagem: Reprodução/Wikimedia)

Fora do mundo do overclock, o Celeron 266 continuava sendo um processador fraco. Foi por isso que a Intel trouxe o Celeron 300A para o mercado, desta vez com um cache L2 que era quatro vezes menor que o do Pentium II, mas era embutido no núcleo do processador, basicamente para baratear o processo de construção.

Com isso, logo os overclockers descobriram que essa CPU era incrivelmente eficiente para overclocks, e rapidamente via-se Celerons 300A rodando a 450 MHz com um desempenho a par dos Pentium II 450 MHz, mas com um preço inacreditavelmente menor.

A barreira mística do primeiro GHz

A guerra das frequências continuou forte na segunda metade da década de 1990. Novas técnicas de construção e transistores cada vez menores chegavam aos processadores pelas mãos da Intel e da AMD, que brigavam pelo primeiro lugar no pódio. A barreira do primeiro GHz foi quebrada por um overclocker que conseguiu levar um Atlhon 800 MHz até os limites com um sistema de refrigeração por compressão da Kryotech.

Foi aí que o overclock passou a ser uma atividade mais séria e começou a chamar a atenção de muitos. Entusiastas passaram a utilizar sistema de refrigeração com nitrogênio líquido e a busca pelo máximo desempenho passou a ser perseguido com intensidade.

Quando o Pentium 4 chegou ao mercado, muitos recordes foram quebrados. A Intel havia perdido a guerra dos GHz para a AMD — que foi a primeira a trazer uma CPU comercial acima dessa frequência. Desse modo, criou um processador para ser forte e aguentar frequências altíssimas.

(Fonte da imagem: Reprodução/Wikimedia)

Os primeiros Pentium 4 chegaram com frequências de 1,5 GHz e menos de dois anos depois já existiam modelos rodando a 3 GHz. Nesse ponto, overclockers profissionais já estavam ultrapassando a marca dos 4 GHz sem muitas dificuldades.

O objetivo da Intel era ter processadores superando os 10 GHz em pouco tempo, mas isso acabou não acontecendo, basicamente porque o consumo energético e a dissipação de calor tornaram-se um problema.

Com isso, os fabricantes passaram a investir em mais núcleos e na eficiência dos processadores. Hoje, a maioria dos processadores trabalha na casa dos 3 GHz, mas são absurdamente mais eficientes que chips do mesmo clock de dez anos atrás.

Uma pequena demonstração

Imagine a seguinte situação: você tem uma camionete que carrega 1.000 caixas na carroceria, e a velocidade dela é de 110 km/h. Esse seria um processador mais antigo.

Agora imagine um caminhão capaz de carregar 10.000 caixas, mas que viaja a apenas 80 km/h. Esse seria o processador moderno.

Qual desses dois seria mais eficiente para transportar a carga? O caminhão — apesar de ser mais lento, pode carregar muito mais carga e seria muito mais eficiente.

Agora imagine que esse caminhão passa por uma reforma e o seu motor é modificado para que o veículo possa rodar a 110 km/h. Esse caso representa o overclock.

O problema que as fabricantes encontraram na limitação das frequências acabou se mostrando uma vantagem, pois foi preciso investir em novas tecnologias que tornaram o processo de construção dos chips cada vez mais eficiente. Isso rende processadores muito melhores e que permitem overclocks melhores e mais confiáveis que antes.

Liga mundial de Overclocking

Com o crescente interesse no overclocking, foi preciso organizar as competições. Um veículo acabou se tornando referência no assunto, o HWBOT ou Liga Mundial de Overclocking (Worldwide Overclocking League). É lá que são mantidos os registros oficiais de diversas competições do gênero.

O HWBOT também reúne uma grande quantidade de material referente ao assunto. Ao longo dos anos, o site indexou muitas informações, incluindo números e resultados de benchmarks, que são testes que têm como finalidade avaliar a performance dos componentes e apresentar um resultado que pode ser utilizado para a comparação.

Assim como as competições oficiais de overclock, o HWBOT também é relativamente novo. Ele começou a reunir dados em 2006 e, de lá pra cá, muitos recordes foram batidos.

A guerra das frequências

A categoria “Frequência de CPU” sempre foi uma das preferidas pelos overclockers, tanto os profissionais quanto os amadores, e, logo no começo da Liga Mundial, ela registrou o incrível recorde de 8.179,988 MHz conseguido pelo overclocker TheKing, da Itália, com um processador Intel Pentium 4-631 — lembra quando falamos que a empresa queria chegar aos 10 GHz?

O registro não foi batido facilmente: foram quase dois anos até que alguém conseguisse superar a marca e, para que isso fosse possível, foi preciso uma nova tecnologia. Quem foi o responsável por viabilizar a quebra desse recorde foi a AMD, que ofereceu ao overclocker finlandês Macci o FX-8150.

No final de 2009 o Bulldozer da AMD cravou a marca de 8.429,4 MHz no primeiro lugar da Liga Mundial e também no Guiness, o Livro dos Recordes (hoje o recorde de Macci está em sétimo lugar).O recorde de Macci. (Fonte da imagem: Reprodução/HWBOT )

De lá pra cá, a AMD não deixou mais a liderança do registro de frequência, que atualmente é ocupada pelo taiwanês AndreYang que, com o mesmo FX-8150, cravou 8.709 MHz no placar da HWBOT.

Vale lembrar que hoje em dia não é apenas a frequência que importa. Arquitetura, desempenho e estabilidade são ainda mais importantes para a competição em outras categorias da Liga Mundial.

Alguns processadores mais modernos podem não chegar aos 8 GHz, mas certamente apresentam muito mais desempenho devido à sua arquitetura. Outro detalhe interessante é que esses overclocks extremos são marcados pelo software CPU-Z e se mantêm estáveis por poucos segundos antes de a máquina travar.

O queridinhos dos overclockers

O banco de dados do HWBOT é grande. São mais de 850 mil resultados diferentes. Com isso, é possível levantar alguns dados estatísticos bastante interessantes sobre as preferências dos overclockers. Em uma breve pesquisa a esses resultados, foi possível levantar quais foram os três processadores mais utilizados a cada ano desde 2006.

Veja na tabela abaixo:

AmpliarClique para ampliar. (Fonte da imagem: Reprodução/HWBOT | Xyala)

Note que essa lista não mostra nenhum processador AMD. Isso não significa que ninguém os utilize, apenas demonstra que não há números relevantes para nossa comparação. Atualmente, 90% dos overclockers profissionais utilizam CPUs Intel e apenas 17% trabalham com produtos AMD. Deve-se levar em conta, ainda, que alguns overclockers trabalham com ambas as plataformas.

Os dados do gráfico mostram uma informação interessante: o processador Intel Core i7 2600K aparece no topo da lista como um dos mais utilizados. Lembra-se do que falamos sobre os multiplicadores no início do texto? O sufixo K nos processadores modernos da Intel indica que esse modelo é destravado, ou seja, pode ter o seu multiplicador alterado livremente.

(Fonte da imagem: Reprodução/Wikimedia)

O Core i7 2600K e a arquitetura Sandy Bridge trouxeram resultados surpreendentes, tanto para games quanto para overclocking. Não é à toa que, no ano de seu lançamento, a arquitetura representou 30% dos resultados enviados ao HWBOT. No ano seguinte o modelo caiu de posição, mas continuou apresentando um resultado importante: 13% do total era Sandy Bridge.

Esses dados são um ótimo indicador de desempenho dos processadores. Quanto mais volume, mais desempenho e inovação na arquitetura. Além disso, um detalhe importante é que nem sempre o processador mais caro é o melhor. Veja por exemplo o Core i7 980X lançado em 2010: ele foi o mais popular naquele ano. Entretanto, era caríssimo. Por outro lado, o Core i7 920 era muito mais barato e quase tão popular quanto ele.

Benchmarks populares: SuperPI

O SuperPi é um dos benchmarks mais utilizados atualmente. O aplicativo é bastante simples, e sua única função é calcular a constante PI. Quanto mais rápido for feito o cálculo, melhor é o processador. Esse aplicativo foi desenvolvido em 1995 e logo caiu nas graças dos overclockers por ser uma eficiente maneira de medir o desempenho dos processadores.

Existem duas modalidades disputadas: SuperPI 1M (1 milhão de casas decimais) e SuperPI 32M (32 milhões de casas decimais).

A Liga Mundial fez um levantamento de dados referentes ao SuperPI anteriores ao ano de 2006 (ano em que começaram os registros da HWBOT). Um dos dados levantados é do dia 13 de janeiro de 2000, quando o overclocker japonês ほりっち bateu o recorde mundial da categoria SuperPI 32M, finalizando o processamento em 1 hora e 56 minutos em um Pentium III 500 rodando a 805 MHz.

Hoje em dia, um teste como esse é processado “um pouco” mais rápido que naquela época. São necessários cerca de 5 minutos para que a tarefa seja concluída.

As competições modernas são mais exigentes e procuram avaliar de forma cada vez mais minuciosa os sistemas, principalmente os exames 3D que exigem tanto em processamento quanto em gráficos. Se você gosta de overclocking, cadastre-se no site da liga mundial e faça parte dessa comunidade. O seu resultado vai ajudar o overclocking brasileiro a crescer

.....

Continue ligado. No próximo artigo vamos contar um pouco mais sobre o papel das placas de vídeo no mundo do overclocking.

Colaboração: Ronaldo Buassali (Rbuass) e Timothée Pineau (Xyala).

Cupons de desconto TecMundo: