Topo

Como algoritmos podem ajudar a minimizar impactos do coronavírus no Brasil

Caro Bohorquez
Imagem: Caro Bohorquez

Eduardo Goulart de Andrade

Colaboração para Tilt e Chequeado *

30/09/2020 19h32

O Brasil é um dos principais epicentros do novo coronavírus no mundo. O país registrou mais de 4,7 milhões de casos de covid-19 e cerca de 143 mil mortes causadas pelo vírus. Em relação aos óbitos, só fica atrás dos Estados Unidos. Possivelmente os casos brasileiros estão subnotificados, já que o Brasil é um dos países que menos realizou exames para detectar a doença. Segundo dados do Ministério da Saúde de 17 de setembro, foram feitos cerca de 6 milhões de testes RT-PCR - sendo cerca de 58% na rede pública e o restante nos cinco maiores laboratórios privados. Imagens de tomografia têm auxiliado médicos a diagnosticar a doença. Inclusive, com uso de inteligência artificial, embora haja toda uma discussão sobre viés, privacidade, transparência e eficácia.

O HC (Hospital das Clínicas), da Faculdade de Medicina da Universidade de São Paulo, foi o primeiro do Brasil a adotar inteligência artificial para diagnóstico da covid-19 por meio de imagens de tomografia. Lançada em abril, a plataforma RadVid-19 foi desenvolvida a partir de algoritmos das empresas Huawei e Siemens —respectivamente da China e da Alemanha—, que cederam o uso dos códigos ao HC. A programação utilizada é de "machine learning". Ou seja, os algoritmos aprendem com os dados inseridos no sistema e se modificam na medida em que vão sendo usados.

"O algoritmo chinês foi treinado com uma base [de dados] com cerca de 4.000 imagens. O europeu começou com cerca de 2.000 imagens. Depois a gente foi acrescentando imagens [de pacientes brasileiros] para ir afinando a precisão do algoritmo", explica o engenheiro Marco Bego, chefe de Inovação e diretor executivo do Hospital das Clínicas. As tomografias realizadas em doentes de covid-19 costumam apresentar alterações pulmonares semelhantes a "vidro fosco". "A gente recebe as imagens de tomografia, os algoritmos avaliam os pixels dessas imagens e fazem uma comparação para ver se o desenho da imagem corresponde com a área que seria com característica de covid."

O HC disponibilizou o recurso a outros hospitais do Brasil. No total, há 50 hospitais cadastrados, sendo cerca de 60% deles do setor privado. Já foram mais 18 mil exames de imagens enviados por radiologistas, com uma média de 70% de resultados positivos para o vírus. "Médicos do país inteiro encaminham casos para a nossa plataforma e depois de poucos minutos eles têm uma resposta dizendo se o caso é de covid ou não e qual é a gravidade do caso", afirma o médico Giovanni Guido Cerri, presidente do Conselho Diretor do Instituto de Radiologia e presidente da Comissão de Inovação (InovaHC) do Hospital das Clínicas. "E qual é a importância disso? É que para covid, principalmente o paciente grave que precisa de terapia intensiva, o diagnóstico rápido da extensão da doença pulmonar é fundamental para iniciar um tratamento eficaz, ou mesmo a internação em terapia intensiva", diz Cerri.

Para Cerri, a tomografia computadorizada auxiliada pela inteligência artificial conseguiu agilizar diagnósticos de casos graves de covid. Consequentemente, ajudou a salvar vidas. "As imagens da tomografia saem de forma praticamente imediata. Enquanto o teste de covid demora de dois a três dias para ficar pronto. No começo, muitos testes PCR demoravam dez dias para ficar pronto. Em dez dias, os casos graves certamente já teriam evoluído para uma condição grave irreversível."

Desde junho, o radiologista Vinicius Martinelli Manfrin tem usado a ferramenta RadVid-19. Ele mora em Nova Mutum, no interior de Mato Grosso, no Centro-Oeste do Brasil. A cidade tem cerca de 45 mil habitantes, 1.623 casos de covid-19 confirmados e 28 mortes registradas, segundo dados da secretaria estadual de Saúde. O médico diz que a inteligência artificial trouxe mais agilidade ao seu trabalho. "Tem acelerado muito o diagnóstico e a conduta do paciente. A tomografia consegue determinar se o paciente vai ficar na casa dele, se ele vai ser internado na enfermaria ou se ele vai direto pra UTI. Todas essas opções são de acordo com os achados da tomografia", explica Manfrin.

O médico afirma que já utilizou a ferramenta para fazer o diagnóstico de cerca de 600 pacientes. Segundo ele, podem ocorrer casos de falsos positivos com a RadVid-19. "Para esses casos, o médico radiologista coloca essa observação no seu laudo -para o médico que toma as condutas clínicas saber disso. Então, nessa hora em que a inteligência artificial teoricamente erra, tem o médico radiologista que vai fazer a parte dele e corrigi-la", diz Manfrin. "Já teve casos que ela sugeriu que era covid, mas era uma alteração sequelar crônica. E no meu laudo, eu não errei. Discordei dela."

Viés e transparência

"Os algoritmos de machine learning aprendem com os dados com os quais eles são alimentados. Então, ele pode ter viés. Se houver diagnósticos imprecisos na base —confundindo com outros vírus, por exemplo—, pode haver probabilidades erradas no uso", diz o médico e advogado sanitarista Daniel A. Dourado, pesquisador do Centro de Pesquisa em Direito Sanitário da Universidade de São Paulo. Dourado também explica que caso os algoritmos sejam desenvolvidos a partir de uma base de dados com características homogêneas, podem gerar resultados errados quando aplicados em grupos heterogêneos. Por exemplo, se a população chinesa apresentar manifestações clínicas diferentes da brasileira, é possível que a inteligência artificial não seja tão precisa.

Por isso, o HC está "treinando" a inteligência artificial com imagens de pacientes brasileiros com covid. "No Brasil, como em outros países da América Latina, a faixa etária acometida é mais baixa do que a da Europa, por exemplo. Então, nós temos a inclusão de pacientes mais jovens. A miscigenação racial do Brasil também é muito diferente do que a da Europa ou mesmo a da China. É por isso que é importante ter um algoritmo nacional, que esteja mais dentro da nossa realidade -tanto racial quanto etária. E nós estamos avaliando agora a precisão dos algoritmos nacionais no diagnóstico de covid. Nós vamos ter esses resultados em outubro", diz Cerri.

Outra particularidade dos algoritmos brasileiros é que eles estão sendo treinados com imagens de raio X de tórax também. Os testes começaram há cerca de um mês. "Porque no Brasil, e diria na América Latina em geral, em muitos lugares não existe disponibilidade de tomografia computadorizada. Principalmente em lugares mais remotos", explica Cerri.

O enviesamento de sistemas de inteligência artificial é uma das principais preocupações de especialistas no tema. Há casos, inclusive, em que o uso de IA pode gerar resultados preconceituosos. O Google, por exemplo, utiliza algoritmos para classificar imagens. Em 2015, a tecnologia identificou pessoas negras como gorilas. Dois anos depois, uma reportagem da Wired fez um teste com 40 mil imagens de animais no Google Photos. A ferramenta identificou diversas espécies, mas o serviço não retornou resultados para o termo de pesquisa "gorila". À Wired, um porta-voz do Google confirmou que a palavra "gorila" havia sido censurada nas buscas e tags de imagem depois do incidente de 2015.

Para o cientista social e advogado Caio Machado, mestre pela Universidade de Oxford, falta transparência sobre o funcionamento de algoritmos de inteligência artificial. "Essas ferramentas são muito opacas. A gente não sabe como elas funcionam na maioria dos casos. Muitas vezes são soluções proprietárias protegidas por propriedade intelectual. É um segredo de negócios." Machado também explica que o bom funcionamento da IA não depende apenas da base de dados utilizada pelo sistema e do código de programação de machine learning. É importante saber como as informações geradas pela IA são usadas por humanos. "Então, a gente está falando de um processo que é muito complexo e que oferece muita margem para erro."

Dourado também critica a falta de transparência de algoritmos. Para ele, no caso do uso de inteligência artificial na área da saúde, os pacientes deveriam ser informados sobre quais são os critérios usados pela IA. "A gente tem aí um debate na Europa sobre direito à explicação, mas no Brasil esse debate ainda é muito incipiente. A gente não tem isso feito ainda. Ou seja, até que ponto vai o direito do paciente, daquela pessoa que é alvo do algoritmo? Se o algoritmo me dá um diagnóstico, eu teria direito de saber quais os elementos que ele usou para isso."

No caso da RadVid-19, Cerri explica que os pacientes não têm conhecimento sobre o uso de algoritmos. "O paciente não é informado a respeito da utilização de inteligência artificial no seu diagnóstico, porque na verdade o objetivo da plataforma é facilitar o diagnóstico. E esse diagnóstico é feito com base na tomografia, ou eventualmente na radiografia de tórax."

Para Dourado, pode existir um dilema ético na maneira como a inteligência artificial venha a influenciar o tratamento no contexto da pandemia -num cenário em que faltam insumos e equipamentos. Em um exemplo hipotético, ele alerta que a IA poderia determinar os pacientes que se beneficiariam de respiradores. "O algoritmo pode direcionar a fila de respiradores em caso de escassez. Isso aí seria uma situação limite. Inclusive o algoritmo precisaria ser acessado por aquela pessoa que for preterida."

Dourado também explica que faltam leis para coibir os eventuais problemas causados pelo uso de inteligência artificial. "E aí a gente entra na parte do meu foco principal de pesquisa, que é sobretudo regulação de algoritmo. A gente tem esses algoritmos e eles não têm uma regulação específica. No Brasil, não tem nenhuma. Eles são registrados como softwares na Agência Nacional de Vigilância Sanitária".

Privacidade

As tomografias e radiografias usadas pela ferramenta RadVid-19 ficam na nuvem da Amazon. Bego explica que as imagens não contêm dados que possam identificar os pacientes, em caso de um eventual vazamento de informações.

A advogada Márcia Araújo Sabino de Freitas, doutora em Saúde Pública pela Universidade de São Paulo e pós-graduada em bioética pela Georgetown University, diz que a privacidade e o uso de dados pessoais dos pacientes é uma preocupação que faz parte da rotina de hospitais há muito tempo.

"Até algum tempo atrás, a preocupação era em proteger e limitar ao acesso aos prontuários físicos dos pacientes. Agora, com os prontuários eletrônicos, a preocupação migrou para uma restrição remota, virtual. As cautelas necessárias com esses dados, entretanto, já são tomadas pelos hospitais e instituições de saúde e já há responsabilidades definidas para quem tem a guarda desses dados, que, por sua vez, são e permanecem de titularidade dos pacientes. Aliás, é exatamente porque os dados pertencem aos pacientes que só podem ser utilizados no contexto e para a função autorizada pelos mesmos."

Durante a pandemia, vários países usaram aplicativos de celular para tentar rastrear e conter o avanço do novo coronavírus. No caso da China, o governo tem acesso a dados pessoais dos usuários. Uma das preocupações é como essas informações podem ser usadas para vigilância e controle social.

No Brasil, desde o início da pandemia, organizações da sociedade civil têm monitorado como a tecnologia pode impactar os cidadãos. O advogado Rafael Zanatta, diretor executivo da Associação Data Privacy Brasil de Pesquisa, aponta que as primeiras iniciativas pensadas para o rastreamento de casos de covid eram preocupantes em relação à privacidade. "Eram sistemas que estavam sendo projetados para serem centralizados. Ou seja, os dados coletados informariam o diagnóstico de covid, informações de geolocalização, metadados do dispositivo, tipo de aparelho etc. E esses registros seriam armazenados em servidores unificados do Ministério da Saúde."

No entanto, o governo brasileiro acabou adotando um modelo de aplicativo baseado na "API Exposure Notification", desenvolvida por Google e Apple. O sistema foi criado para não expor nome e localização dos usuários. Países como Uruguai, Alemanha, Itália e Suíça também utilizam a tecnologia.

No Brasil, o aplicativo ganhou o nome de Coronavírus-SUS. Quem utiliza o app precisa informar o diagnóstico positivo da doença, de forma voluntária e anônima. O site oficial afirma que o envio das informações de contágio é feito de forma criptografada, com uso do bluetooth de baixa energia. Assim, o Coronavírus-SUS "reconhece contatos próximos a uma distância de 1,5 a 2 metros e por um tempo mínimo de cinco minutos entre smartphones que possuam o aplicativo instalado". Dessa maneira, um usuário seria notificado caso tivesse contato com uma pessoa infectada.

Para Zanatta, o uso dessa tecnologia foi uma escolha acertada. "Das diversas tecnologias de rastreamento de contato automatizadas, essa em específico é a que tem menos riscos a liberdades civis, porque tem uma série de escolhas acertadas de arquitetura de sistema, num modelo de rastreamento descentralizado." Porém, o advogado faz uma ressalva: "o governo falhou em apresentar de forma transparente e aberta a documentação [do aplicativo] e colocá-la em debate público."

Os pesquisadores europeus Serge Vaudenay e Martin Vuagnoux analisaram o app SwissCovid, que também é baseado na "API Exposure Notification". Eles identificaram vulnerabilidades no sistema que podem expor a privacidade e a segurança dos usuários. Neste vídeo, eles mostram como descobriram as falhas. "Essas são apenas as questões de segurança e privacidade, mas também há a questão de saber se essa tecnologia é útil. A questão de saber se ele identifica de forma confiável contatos próximos via Bluetooth é debatida. Não há provas de que esteja funcionando e alguns pesquisadores até desconfiaram que não funciona na vida real", diz Vaudenay.

Perguntei ao Ministério da Saúde do Brasil quantas pessoas utilizam o Coronavírus-SUS, quantas delas informaram o diagnóstico positivo para covid e quantos alertas foram disparados para pessoas que tiveram contato com infectados. Em nota, a assessoria de imprensa do órgão diz que 10 milhões de pessoas baixaram o aplicativo, mas que "para garantir a segurança e privacidade dos usuários, a plataforma não registra dados que possam identificá-los -o que impossibilita a mensuração e divulgação das informações solicitadas".

No entanto, isso contradiz o texto divulgado no site oficial do aplicativo: "Na prática, o cidadão com resultado positivo para covid-19 vai disponibilizar no aplicativo Coronavirus-SUS -de forma voluntária e anônima, a partir de um token (código de números) emitido pelo Ministério da Saúde- a validação do seu exame (PCR ou sorológico) positivo para a doença. Para evitar informações falsas, antes de gerar o token, o Ministério da Saúde fará o cruzamento entre o exame informado pela pessoa e os registros integrados da plataforma de vigilância (e-SUS Notifica) e da Rede Nacional de Dados em Saúde (RNDS), ambos integrados e que reúnem informações dos pacientes com covid-19 no Brasil".

Então, perguntei: como é possível o Ministério da Saúde emitir e validar os tokens e não ter essas informações contabilizadas? O órgão não respondeu. Além disso, em cima da hora a assessoria de imprensa cancelou uma entrevista que eu faria por telefone com um porta-voz do ministério. A entrevista estava combinada havia quatro dias e foi cancelada a poucas horas antes do horário agendado. Transparência não tem sido um dos pontos fortes do governo Bolsonaro.

Sobre as vulnerabilidades da "API Exposure Notification" descobertas por Vaudenay e Vuagnoux, a assessoria de imprensa disse em nota que o Coronavírus-SUS é seguro. "O aplicativo passou por uma sequência exaustiva de testes pelos fabricantes antes de ser disponibilizado nas lojas para download. Todos os dados são criptografados e salvos localmente no smartphone. Os dados só ficam disponíveis na ferramenta durante o período de 14 dias." Por e-mail, entrei em contato com Google e Apple, mas as empresas não responderam os questionamentos feitos pela reportagem.

Regulação

Nós disponibilizamos uma série de informações sobre nossos hábitos para empresas como Google e Apple. Com uma base de dados gigantesca e uso de IA, é possível que as big techs saibam mais sobre nossa saúde do que nós mesmos. Alphabet, a empresa controladora do Google, anunciou que vai entrar nomercado de seguros de saúde.

Freitas fala sobre os principais desafios que governos, empresas e sociedade civil devem enfrentar por causa do uso de algoritmos na área da saúde. "Junto com toda essa tecnologia, mudam de patamar as discussões sobre a proteção e privacidade de dados pessoais de saúde, sobretudo diante da possibilidade de uso desses dados, que a pessoa fornece para resolver questões pessoais de saúde, para outros fins que não os autorizados ou conhecidos pelos pacientes, como, por exemplo, eventual utilização desses dados por empresas para publicidade ou por governos para vigilância e exercício de poder e controle sobre a população."

Há dois anos o Brasil aprovou a LGPD (Lei Geral de Proteção de Dados). A legislação brasileira —que tem muitas semelhanças com o GPDR (Regulamento Geral sobre a Proteção de Dados), da União Europeia— deveria entrar em vigor em 2019, mas foi adiada para julho deste ano. No entanto, no último mês de junho, o presidente Jair Bolsonaro tentou uma manobra para postergar a lei para 2021.

"Tinha um lobby muito grande do poder econômico dizendo que a LGPD era custosa e de que precisaria de mais tempo. O governo comprou essa narrativa e quis adiar a LGPD", diz Zanatta. Além disso, o diretor da Data Privacy também lembra que o governo brasileiro esteve envolvido este ano em uma série de escândalos envolvendo dados de cidadãos brasileiros. O Ministério da Justiça produziu dossiê sobre de quase 600 pessoas críticas ao governo. E a Abin (Agência Brasileira de Inteligência) queria ter acesso a dados de mais de 76 milhões de cidadãos que possuem uma carteira nacional de habilitação. Tudo isso vai contra o que prevê a LGPD —e a legislação em geral. O Supremo Tribunal Federal determinou que o Ministério da Justiça suspenda a produção dos relatórios. Agora, o STF está analisando o caso da Abin, em ação que aponta para o descumprimento de preceito fundamental previsto na Constituição brasileira.

Contrariando Bolsonaro, o Senado decidiu que a LGPD deveria entrar em vigência agora. A nova legislação começou a valer em 18 de setembro. Agora o brasileiro pode exigir que empresas e órgãos públicos informem quais dados foram coletados, como são armazenados e com qual finalidade. Além disso, os cidadãos podem exigir a exclusão de algum dado. Há sanções administrativas e multas para quem descumprir as regras. Com isso, empresas que não se adequarem podem até inviabilizar o próprio negócio. Resta saber se essa lei vai pegar.

* Esta reportagem é uma das oito investigações latino-americanas sobre as implicações éticas do uso de inteligência artificial e algoritmos em políticas públicas e empresas privadas em nível regional. Todas essas matérias são financiadas pela Chequeado graças ao apoio da Fundação Knight.