Publicado em 4 de janeiro de 2025 às 13:44
A inteligência artificial está marcando um momento definidor na história da tecnologia — e o ano de 2025 trará ainda mais surpresas.>
Não é fácil fazer uma previsão do que esperar, mas é possível destacar tendências e desafios que definem o futuro imediato da IA para o próximo ano. >
Entre eles, o desafio dos chamados "médico centauro" ou "professor centauro", fundamental para quem está desenvolvendo inteligência artificial.>
A IA virou uma ferramenta fundamental para se enfrentar grandes desafios científicos. Áreas como saúde, astronomia e exploração espacial, neurociência ou mudanças climáticas, entre outras, vão se beneficiar ainda mais no futuro.>
>
O programa AlphaFold — desenvolvido pelo grupo Alphabet, do Google, e que ganhou o Prêmio Nobel em 2024 — determinou a estrutura tridimensional de 200 milhões de proteínas, praticamente todas as conhecidas.>
Seu desenvolvimento representa um avanço significativo na Biologia Molecular e na Medicina. Isso facilita a concepção de novos medicamentos e tratamentos. Em 2025, isso começará a acontecer — e com acesso gratuito ao AlphaFold para quem for desenvolver remédios e tratamentos.>
Já a rede ClimateNet utiliza redes neurais artificiais para realizar análises espaciais e temporais precisas de grandes volumes de dados climáticos, essenciais para compreender e mitigar o aquecimento global.>
A utilização do ClimateNet será essencial em 2025 para prever eventos climáticos extremos com maior precisão.>
A justiça e a Medicina são considerados campos de alto risco. Neles é mais urgente do que em qualquer outra área estabelecer sistemas para que os humanos tenham sempre a decisão final.>
Os especialistas em IA trabalham para garantir a confiança dos usuários, para que o sistema seja transparente, que proteja as pessoas e que os humanos estejam no centro das decisões.>
Aqui entra em jogo o desafio do "doutor centauro". Centauros são modelos híbridos de algoritmo que combinam análise formal de máquina e intuição humana.>
Um "médico centauro + um sistema de IA" melhora as decisões que os humanos tomam por conta própria e que os sistemas de IA tomam por conta própria.>
O médico sempre será quem aperta o botão final; e o juiz quem determina se uma sentença é justa.>
Agentes autônomos de IA baseados em modelos de linguagem são a meta para 2025 de grandes empresas de tecnologia como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) ou Anthropic (Claude).>
Até agora, estes sistemas de IA fazem recomendações. Em 2025, no entanto, espera-se que eles tomem decisões por nós.>
Os agentes de IA realizarão ações personalizadas e precisas em tarefas que não sejam de alto risco, sempre ajustadas às necessidades e preferências do usuário. Por exemplo: comprar uma passagem de ônibus, atualizar a agenda, recomendar uma compra específica e executá-la.>
Eles também poderão responder nosso e-mail — tarefa que nos toma muito tempo diariamente.>
Nessa linha, a OpenAI lançou o AgentGPT, e o Google lançou o Gemini 2.0. Essas plataformas podem ser usadas para o desenvolvimento de agentes autônomos de IA.>
Por sua vez, a Anthropic propõe duas versões atualizadas de seu modelo de linguagem Claude: Haiku e Sonnet.>
O programa Sonnet consegue usar um computador do mesmo jeito que uma pessoa. Isso significa que ele consegue mover o cursor, clicar em botões, digitar texto e navegar por telas.>
Ele também permite funcionalidade para automatizar a área de trabalho. Ele permite que os usuários concedam a Claude acesso e controle sobre certos aspectos de seus computadores pessoais.>
Esta capacidade apelidada de "uso do computador" poderá revolucionar a forma como automatizamos e gerimos as nossas tarefas diárias.>
No comércio eletrônico, agentes autônomos de IA poderão fazer uma compra no lugar do usuário.>
Eles prestarão assessoria na tomada de decisões de negócios, gerenciarão estoques automaticamente, trabalharão com fornecedores de todos os tipos, inclusive logísticos, para otimizar o processo de reabastecimento, atualizarão o status de envio até a geração de faturas, etc.>
No setor educacional, eles poderão customizar os planos de estudos dos alunos. Eles identificarão áreas para melhoria e sugerirão recursos de aprendizagem apropriados.>
Caminharemos em direção ao conceito de "professor centauro", auxiliado por agentes de IA na educação.>
A noção de agentes autônomos levanta questões profundas sobre o conceito de "autonomia humana e controle humano". >
O que significa realmente "autonomia"?>
Esses agentes de IA criarão a necessidade de pré-aprovação. Quais decisões permitiremos que estas entidades tomem sem a nossa aprovação direta (sem controle humano)?>
Enfrentamos um dilema crucial: saber quando é melhor ser "automático" na utilização de agentes autônomos de IA e quando é necessário tomar a decisão, ou seja, recorrer ao "controle humano" ou à "interação humano-IA".>
O conceito de pré-aprovação vai ganhar grande relevância na utilização de agentes autônomos de IA.>
2025 será o ano da expansão dos modelos de linguagem pequena e aberta (SLM).>
São modelos de linguagem que futuramente poderão ser instalados num dispositivo móvel, permitindo controlar o nosso telefone por voz de uma forma muito mais pessoal e inteligente do que com assistentes como a Siri.>
SLMs são compactos e mais eficientes, não requerem servidores massivos para serem usados. Estas são soluções de código aberto que podem ser treinadas para cenários específicos.>
Eles podem respeitar mais a privacidade do usuário e são perfeitos para uso em computadores e celulares de baixo custo.>
Eles têm potencial para adoção no nível empresarial. Isto será viável porque os SLMs terão um custo menor, mais transparência e, potencialmente, maior transparência e controle.>
Os SLMs permitirão integrar aplicações de recomendações médicas, de educação, de tradução automática, de resumo de textos ou de correção ortográfica e gramatical instantânea. Tudo isso em pequenos dispositivos sem a necessidade de conexão com a internet.>
Entre as suas importantes vantagens sociais, eles podem facilitar a utilização de modelos linguísticos na educação em áreas desfavorecidas.>
E podem melhorar o acesso a diagnósticos e recomendações com modelos de SLM de saúde especializados em áreas com recursos limitados.>
O seu desenvolvimento é essencial para apoiar comunidades com menos recursos.>
E podem acelerar a presença do "professor ou médico centauro" em qualquer região do planeta.>
Em 13 de junho de 2024, foi aprovada a legislação europeia sobre IA, que entrará em vigor em dois anos. Ao longo de 2025, serão criadas normas e padrões de avaliação, incluindo padrões ISO e IEEE.>
Em 2020, a Comissão Europeia havia publicado a primeira Lista de Avaliação para IA Confiável (ALTAI). Esta lista inclui sete requisitos: agência humana e supervisão, robustez técnica e segurança, governança e privacidade de dados, transparência, diversidade, não discriminação e equidade, bem-estar social e ambiental e responsabilidade. Essa lista constitui a base das futuras normas europeias.>
Ter padrões de avaliação é fundamental para auditar sistemas de IA. Por exemplo: o que acontece se um veículo autônomo sofrer um acidente? Quem assume a responsabilidade? O quadro regulamentar abordará questões como estas.>
Dario Amodei, CEO da Anthropic, em seu ensaio intitulado "Machines of Loving Grace" ("Máquinas de graça amorosa", em tradução livre), de outubro de 2024, expõe a visão das grandes empresas de tecnologia: "Acho que é essencial ter uma visão verdadeiramente inspiradora do futuro, e não apenas um plano para apagar incêndios.">
Existem pontos de vista contrastantes de outros pensadores mais críticos. Por exemplo, aquele representado por Yuval Noah Harari e discutido em seu livro Nexus: Uma Breve História das Redes de Informação, da Idade da Pedra À Inteligência Artificial.>
Portanto, precisamos de regulamentação. Isso proporciona o equilíbrio necessário para o desenvolvimento de uma IA confiável e responsável e para poder avançar nos grandes desafios para o bem da humanidade destacados por Amodei.>
E, com eles, ter os mecanismos de governança necessários como um "plano para apagar incêndios".>
*Francisco Herrera Triguero é professor de Inteligência Artificial na Universidade de Granada e diretor do Instituto Andaluz de Pesquisa em Ciência de Dados e Inteligência Computacional na Espanha.>
*Este artigo foi publicado no The Conversation e reproduzido sob a licença Creative Commons. Clique aqui para ler a versão original em espanhol.>
>
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta