Curte vídeos fakes com famosos? Seu dispositivo pode ter sido hackeado
Do UOL*, em São Paulo
12/02/2018 09h00
Com o bizarro sucesso de falsos vídeos e gifs pornográficos estrelados por celebridades, alguns cibercriminosos encontraram aí uma oportunidade de negócio-- literalmente.
O crime da vez agora é usar os equipamentos de quem gosta desse tipo de conteúdo -- chamado de deepfakes-- para minerar a criptomoeda Monero.
Veja também
Segundo pesquisadores da empresa de segurança Malwarebytes, um código malicioso foi usado em um site que reunia fãs desses vídeos (falsos) estrelados por famosos. Ao abrir o link no navegador, a máquina do internauta começava a trabalhar para os hackers.
VEJA TAMBÉM
- Como hackers estão roubando milhões em caixas eletrônicos sem explosões
- Expectativa x realidade: brasileiro quer app de pornografia, mas acha vírus
- Parece que o jogo virou: aprenda a "burlar" o algoritmo do Facebook
Assim como no bitcoin, a criptomoeda Monero depende que máquinas fiquem trabalhando incessantemente para tentar resolver equações matemáticas. A cada resolução, os equipamentos utilizados no processo são recompensados com um certo número de criptomoedas.
O processo é trabalhoso e lento. Por isso, quanto mais dispositivos conectados fazendo o trabalho duro, mais chances os hackers têm de conseguir o dinheiro virtual.
Ataques assim têm sido chamados de cryptojacking e preocupado especialistas.
Com o computador afetado, o equipamento pode ficar mais lento e em alguns casos superaquecer. Sem contar outros golpes que os cibercriminosos podem aplicar uma vez que já estão com acesso ao dispositivo.
O que é deepfake?
O deepfake tem ficado cada vez mais popular e consiste em pegar o rosto de pessoas famosas e colocá-lo em cenas que elas jamais fizeram.
A atriz Emma Watson, famosa pela atuação nos filmes Harry Potter, e a cantora Ariana Grande já foram alvos das montagens. Os rostos das duas foram usados em cenas de filmes pornôs.
O mais curioso é que tudo funciona com base na inteligência artificial e o resultado envolve cenas bem realistas em alguns casos. O uso não é exclusivamente para conteúdos pornográficos, mas se popularizou por eles.
Basicamente, o sistema consegue ir aprendendo conforme vai sendo alimentado por imagens e vídeos. Com isso, quanto mais dados ele tiver, melhores serão os resultados.
De acordo com a empresa MalwareBytes, a tecnologia deepfake está disponível para qualquer pessoa e ela só precisa ter um equipamento um pouco mais robusto, já que precisará suportar o processo de treinamento intensivo, que pode levar horas ou dias para serem concluídos.
A plataforma Gfycat, usada para hospedar vídeos curtos, foi uma das mais utilizadas para a disseminação dos deepfakes. Recentemente, ela anunciou que iria apagar conteúdos assim.
*Com informações do “CNET”