Diogo Cortiz

Diogo Cortiz

Siga nas redes
Só para assinantesAssine UOL
Opinião

As 3 principais disputas para entender como será o mundo da IA em 2024

A semana foi tão intensa no mundo da IA (inteligência artificial) que nem parece fim de ano:

  • O Google lançou sua nova IA;
  • Meta e IBM se aliaram para promover o desenvolvimento aberto de IA;
  • A União Europeia chegou a um acordo para regular a tecnologia;
  • Uma startup francesa colocou a Europa no jogo da IA em apenas 7 meses.

Esses são sinais de que o mundo da tecnologia vai ficar ainda mais complexo em 2024. Vou explicar em detalhes.

Google Gemini: o que vem depois?

O Google lançou na semana passada o Gemini, seu maior e mais capaz modelo de IA. A empresa de Mountain View veio com uma estratégia de comunicação para mostrar para o mundo - e os investidores - que sua tecnologia era mais poderosa do que o GPT-4, da rival OpenAI.

O roteiro era quase perfeito. Incluíram depoimentos impactantes do CEO Sundar Pichai e do chefão de IA Demis Hassabis. Um destaque especial foi um vídeo demonstrativo em que um usuário interagia com a nova IA fazendo perguntas enquanto criava um desenho. O vídeo ilustrou de forma impressionante a capacidade da IA em processar e entender imagens em tempo real.

Eu disse quase perfeito, porque o vídeo que mais chamou atenção de todos, na verdade, tinha sido editado para levar mais fluidez para a interação. O Google não escondeu e deixou uma mensagem explicando isso no próprio material. Pegou mal. A mídia especializada e os usuários começaram a questionar se o modelo é tudo isso mesmo, dado que a versão mais avançada não está disponível para acesso.

O Gemini vem em três diferentes versões: Ultra, Pro e Nano. A Ultra, mais poderosa de todas, chega ao mercado no ano que vem e deve acirrar ainda mais a competição entre Google e OpenAI.

Continua após a publicidade

Foi a versão Ultra do Gemini que surpreendeu nos principais benchmarks de IA - conjunto de testes utilizados para avaliar os desempenhos dos modelos em diferentes tarefas. A nova IA do Google foi melhor do que o ChatGPT em 30 dos 32 testes. E foi a primeira vez que uma IA atingiu a nota de 90%, maior do que os humanos especialistas, no teste MMLU, que combina conhecimentos de 57 assuntos, que variam de matemática e física a história, medicina e ética.

O diferencial do Gemini está na forma como ele foi treinado. Até hoje, o mais comum era treinar separadamente os modelos com modalidades diferentes - um especialista em linguagem, outro em áudio, outro em imagem etc. - e depois juntar tudo para oferecer uma funcionalidade mais complexa para o usuário. Essa abordagem funciona para diversas tarefas, como a descrição e geração de imagem, mas o fato de ter componentes isolados dificulta que a IA tire proveito de um raciocínio mais complexo e integrado.

O Gemini foi projetado para ser nativamente multimodal e treinado desde o início em diferentes modalidades (texto, imagens, sons). Os engenheiros ainda refinaram o modelo em cada uma das modalidades para aumentar a sua eficácia. Esse tipo de treinamento traz benefícios pois aumenta a compreensão e raciocínio do modelo a partir de diferentes formas de dados.

Apesar do Google ter conseguido bater o ChatGPT nesse mundaréu de testes, a diferença é muito pequena. Eu tenho uma hipótese (que é compartilhada por muitos acadêmicos e especialistas) de que podemos estar chegando no pico da capacidade desses modelos baseados na arquitetura de redes neurais chamadas Transformers (que também é utilizada pelo ChatGPT) e que são a base dos Modelos de Linguagem.

Só escalar o tamanho pode não ser mais suficiente. Em 2024, a competição será para ver quem consegue integrar melhor novas técnicas e abordagens de aprendizado para a IA. Só que a competição desta vez será diferente, porque Google e OpenAI estão se fechando e divulgando cada vez menos do que estão pesquisando e desenvolvendo. É um caminho bem diferente do que nos trouxe até aqui, em que tudo era aberto e compartilhado.

IA de código aberto: uma resposta do resto do mundo?

Só que a realidade é mais complexa do que parece. O movimento de código aberto (open source) promete ser um importante contrapeso para essa decisão de algumas Big techs de focar em IA fechada e proprietária.

Continua após a publicidade

A Meta foi uma das primeiras empresas de tecnologia de peso a apostar no modelo de código aberto. O LLama 2 é hoje um dos principais modelos e a base para um monte de serviços e aplicações ao redor do mundo. Para fortalecer o ecossistema de código aberto, a empresa de Zuckerberg, junto com a IBM e outros 50 parceiros, lançaram na semana passada a "The AI Alliance", uma aliança para promover o desenvolvimento seguro e ético de uma IA aberta.

E mesmo fora dos Estados Unidos, o movimento de código aberto vem sendo importante para incentivar o desenvolvimento e uso da IA em países que ainda estão atrás nessa corrida. É o caso da França.

Na semana passada, a startup francesa Mistral publicou o seu modelo de IA que é um marco para a Europa. Ainda que tenha sido fundada há apenas 7 meses por ex-pesquisadores de Google e Meta, ela já está avaliada em US$ 2 bilhões (com muitos investimentos de BNP Paribas, Salesforce, Eric Schmidt, entre outros).

O modelo Mixtral 8x7B tem desempenho similar (e muitas vezes melhor) do que o Llama 2, da Meta, e o GPT 3.5, da OpenAI. Só que o custo computacional e a velocidade dele são muito menores. Além disso, diferentemente da Meta, que liberou o Llama 2 com uma licença mais restrita, a Mistral optou por um licenciamento mais permissivo (Apache 2.0) que dá maior liberdade econômica para os usuários.

É a primeira vez na história mais recente da IA que vemos uma startup fora dos EUA e China chamar a atenção da comunidade global com um modelo promissor. A tendência para 2024 é que o movimento de código aberto se fortaleça e seja uma resposta aos modelos fechados das Big techs, especialmente em países em desenvolvimento.

O MCTIC (Ministério de Ciência, Tecnologia e Inovação) anunciou nesta segunda-feira (11) que irá atualizar a EBIA (Estratégia Brasileira de Inteligência Artificial). É importante que a promoção do uso e desenvolvimento de modelos abertos seja prioritária. É um jeito mais fácil de entrar em uma área extremamente custosa e complexa. China e Europa entenderam isso.

Continua após a publicidade

AI ACT na União Europeia: vamos precisar de uma regulação global?

Na última sexta-feira, a União Europeia finalizou um acordo histórico para estabelecer um conjunto de regras para o uso e desenvolvimento de IA. Chamada de "AI ACT", a proposta estabelece um marco regulatório a partir de uma abordagem baseada em risco. Isso quer dizer que não existe uma única regra que vale para todos os sistemas de IA, mas que cada um será avaliado e regulado com base no risco que representa para a sociedade e os indivíduos.

É uma abordagem que está influenciando o debate sobre regulação no mundo todo. No Brasil, a proposta escrita pela comissão de juristas do Senado tinha essa mesma essência.

Eu continuo achando que a regulação de IA precisa de um debate mais profundo para detalhar como alguns direitos e deveres funcionam de forma prática e técnica, mas gosto da abordagem baseada em riscos. Eu sempre argumentei que não tem como regular a tecnologia de IA em si, mas que deveríamos pensar a partir de casos de usos. Nesse contexto, faz total sentido pensar de uma forma assimétrica e a partir de riscos.

O pacto foi concluído na sexta-feira, e a lei europeia ainda não entrou em vigor. O Parlamento Europeu precisa aprovar o acordo em plenário, o que está previsto para ocorrer no início de 2024.

A aprovação, no entanto, vem sofrendo críticas de atores importantes. O presidente francês Emmanuel Macron diz que a nova lei pode dificultar a inovação e deixar as empresas de tecnologia da região atrás de rivais nos EUA, Reino Unido e China.

Continua após a publicidade

Não tem jeito. O tema da regulação se tornará cada vez mais central nas discussões globais. À medida que 2024 se aproxima, podemos esperar que este tópico se estabeleça como uma prioridade na agenda de diversos governos e organizações internacionais - para alegria de uns e desespero de outros. O que precisamos é de cautela para encontrar o equilíbrio entre a promoção da inovação local e o bem-estar da sociedade.

Se 2023 abriu a porta da IA para a população global, em 2024 vamos ter que sentar no sofá para conversar sobre como colocar a casa em ordem.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do UOL.

Deixe seu comentário

Só para assinantes