O algoritmo prioriza os elementos em cada uma das cenas. (Fonte da imagem: Reprodução/Engadget)

Pesquisadores da universidade de Brigham Young (BYU) criaram um algoritmo capaz de identificar objetos em imagens e vídeos de forma completamente autônoma – justamente, sem nenhum tipo de intervenção humana. De acordo com Day-Jye Lee, professor de engenharia computacional e chefe da pesquisa responsável por desenvolver o tal mecanismo, o algoritmo é capaz de selecionar os elementos “mais importantes” de cada cena analisada.

“Na maioria dos casos, pessoas ficam encarregadas de decidir o que deve ser priorizado e, somente então, um algoritmo é escrito. Com este novo algoritmo, o computador decide quais elementos são importantes em um conjunto de imagens”, explicou o professor. O estudo, publicado pelo periódico Pattern Recognition, mostra que este sistema possui um desempenho melhor quando comparado a algoritmos que executam tarefas semelhantes (a precisão das identificações ficou em 100%; outros projetos atingiram marcas que variaram de 95 a 98%).

Em vez de programar o mecanismo para identificar cada um dos elementos presentes em uma determinada cena, Lee fez com que o sistema “aprendesse” a ler a diferença entre objetos. “Em vez de dizer ao computador o que olhar ou o que distinguir entre os objetos, simplesmente o alimentamos com imagens e ele aprendeu por si mesmo”.

Possibilidades

Mas para que tipos de aplicações este algoritmo pode ser de fato usado? Estariam os tempos da Skynet pairando já sobre a humanidade? De acordo também com o engenheiro, as possibilidades inauguradas por este novo sistema de identificação de objetos em cenas pode desde perceber novas espécies de peixes até apontar defeitos em produtos (como em um lote de maçãs, por exemplo).

“É um sistema muito parecido com outros algoritmos de reconhecimento por semelhanças, mas nós não precisamos que humanos estejam envolvidos. Você não tem de reinventar a roda todo o tempo. Você apenas a deixa rodar”, conclui o professor.

Cupons de desconto TecMundo: