Família de Oregon descobre que dispositivo Alexa tem mente própria
Por Jeffrey Dastin
(Reuters) - Uma família de Portland, no Estado norte-americano do Oregon, descobriu o que acontece quando a popular assistente de voz da Amazon.com Alexa está perdida nas traduções.
A Amazon descreveu quinta-feira uma "improvável... série de eventos" que fizeram a Alexa enviar gravações de áudio da família para seus contatos de forma aleatória. O episódio revelou como a Alexa pode interpretar mal as conversas como um pedido de acionamento e um comando.
Um veículo local de imprensa, KIRO 7, reportou que uma mulher com dispositivos da Amazon em sua casa recebeu uma chamada há duas semanas de um funcionário de seu marido, dizendo que a Alexa tinha gravado uma conversa de sua família sobre pisos de madeira e enviado para ele.
"Eu me senti invadida", disse a mulher, identificada apenas como Danielle, segundo a reportagem. "Uma total invasão de privacidade. Imediatamente eu disse, 'eu nunca vou ligar esse dispositivo de novo porque não posso confiar nele'".
Alexa, que vem com caixas de som Echo e outros aparelhos, começa a gravar depois de ouvir seu nome ou outra "palavra de ativação" selecionada por usuários. Isso significa que uma expressão parecida com Alexa, mesmo de um comercial de TV, pode ativar o dispositivo.
Foi isso que aconteceu no incidente, disse a Amazon.
"Conversa subsequente foi ouvida como um pedido de 'enviar a mensagem'", disse a empresa em um comunicado. "Naquele ponto, Alexa disse em voz alta 'para quem?' e a conversa de fundo foi interpretada como um nome na lista de contatos do cliente."
A Amazon acrescentou que a empresa está "avaliando as opções para tornar esse caso ainda menos provável."
Garantindo aos consumidores que a segurança da Alexa é crucial para a Amazon, que tem ambições de que o dispositivo seja onipresente - seja controlando as luzes para os clientes ou fazendo pedidos junto à maior varejista online no mundo.
Pesquisadores da universidades de Berkeley e Georgetown descobriram em um estudo de 2016 que sons ininteligíveis para humanos podem disparar assistentes de voz em geral, o que levantou preocupações sobre o uso para ataques. A Amazon não comentou imediatamente sobre o assunto, mas anteriormente disse ao The New York Times que tomou medidas para manter seus dispositivos seguros.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.