Inteligência artificial representa riscos sérios se for usada para o mal, dizem pesquisadores
FRANKFURT (Reuters) - Avanços rápidos em inteligência artificial estão criando riscos de crescentes ataques digitais automáticos, o que pode fazer com que carros autônomos sofram acidentes ou drones comerciais se transformem em armas, afirma uma pesquisa divulgada nesta quarta-feira.
O estudo, publicado por 25 pesquisadores das universidades de Cambridge, Oxford e Yale junto com especialistas militares e de privacidade, soa o alarme sobre potenciais usos malignos da inteligência artificial por Estados e criminosos.
Os pesquisadores afirmam que o uso mal-intencionado da inteligência artificial representa ameaça iminente para a segurança digital, física e política ao permitir ataques em larga escala, precisos e altamente eficientes. O estudo se foca em desdobramentos plausíveis num horizonte de cinco anos.
"Todos nós concordamos que há muitas aplicações positivas para a inteligência artificial", afirmou Miles Brundage, pesquisador do Instituto para Futuro da Humanidade em Oxford. "Havia uma lacuna na literatura sobre usos maligos."
A inteligência artificial envolve o uso de computadores para executar tarefas que normalmente exigem inteligência humana, como tomar decisões ou reconhecer texto, fala ou imagens visuais.
É considerada uma força poderosa para desbloquear de todas as formas as possibilidades técnicas, mas tornou-se um foco de debate ruidoso sobre se a automação maciça que propicia pode resultar em desemprego generalizado e outras mudanças sociais.
O estudo de 98 páginas alerta que o custo de ataques pode cair com o uso da inteligência artificial para tarefas que de outra forma exigiriam trabalho e conhecimento humanos. Podem surgir novos ataques que seriam praticamente inviáveis para humanos desenvolverem sozinhos e também ataques que explorem vulnerabilidades dos próprios sistemas de inteligência artificial.
Os pesquisadores detalharam o poder da inteligência artificial em criar imagens, textos e áudios sintéticos que simulariam pessoas reais no mundo online para influenciar a opinião pública.
O relatório faz uma série de recomendações, incluindo que a inteligência artificial seja regulamentada como uma tecnologia de uso militar e comercial.
O texto também questiona se acadêmicos e outras pessoas poderiam controlar o que é divulgado sobre novas descobertas no campo da inteligência artificial até que outros especialistas tenham a chance de estudar e avaliar potenciais riscos que elas representam.
"No final, acabamos com muito mais perguntas que respostas", disse Brundage.
A pesquisa nasceu em um workshop em 2017 e algumas de suas previsões acabaram se tornando realidade enquanto ela estava sendo escrita. Os autores especularam sobre a inteligência artificial ser capaz de criar imagens e áudio altamente fidedignos de autoridades públicas para propósitos de propaganda.
No ano passado, vídeos pornográficos realistas com rostos de celebridades inseridos em diferentes corpos começaram a surgir online.
(Por Eric Auchard)
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.