A inteligência artificial tornou-se prioridade para organizações que buscam manter-se competitivas em um ambiente que exige cada vez mais velocidade, precisão e capacidade de adaptação. Tudo promete eficiência: a automação, a análise avançada e os agentes. No entanto, conforme seu uso se generaliza, muitas empresas enfrentam um risco tão invisível quanto perigoso: as "alucinações" da IA. O que acontece quando uma tecnologia projetada para ajudar começa a gerar erros que aceitamos como verdades por vir de uma IA? Em um contexto no qual confiar na IA parece quase inevitável, a pergunta já não é o que ela pode fazer, mas quem a supervisiona.
A inteligência artificial contribui com entre US$ 2,6 e US$ 4,4 trilhões para a economia global, segundo o McKinsey Global Institute, e afetará quase 40% dos empregos em todo o mundo, de acordo com o Fundo Monetário Internacional. Contudo, nem todos estão preparados para essa mudança. Um exemplo disso ocorreu quando o Google apresentou seu modelo de IA Bard (hoje Gemini) com uma demonstração que afirmava que o Telescópio Espacial James Webb havia capturado a primeira imagem de um exoplaneta — quando, na verdade, esse marco aconteceu em 2004 com outro instrumento. O erro passou despercebido na revisão interna, mas foi detectado por astrônomos e usuários nas redes sociais. O resultado foi uma perda de mais de US$ 100 bilhões em valor de mercado para a Alphabet Inc. em um único dia. Fica claro que a supervisão humana sobre trabalhos realizados por inteligência artificial é fundamental, pois em tarefas críticas um erro pode custar muito dinheiro, tempo e reputação.
A alucinação ocorre quando um sistema de inteligência artificial gera respostas que, embora pareçam convincentes em sua formulação, são incorretas ou diretamente inventadas. É similar a quando um modelo de linguagem de grande porte (LLM) como ChatGPT ou Gemini afirma com certeza algo falso. Esses erros parecem autênticos, o que os torna difíceis de detectar à primeira vista.
Pensemos em um analista financeiro que usou um modelo para resumir relatórios trimestrais e recorreu a um LLM intermediário com taxa de alucinação de 4,5%. Ao ser utilizado, o modelo "alucinou" cifras críticas em uma projeção financeira crucial, afirmando que os gastos de um concorrente eram de US$ 23 milhões — quando, na realidade, totalizavam US$ 230 milhões. Isso levou a uma decisão equivocada que custou à empresa US$ 2,3 milhões em recursos mal alocados. Esse tipo de situação não se limita a um caso isolado. Em um teste, as taxas de alucinação dos sistemas de IA mais recentes atingiram 79%. Atualmente, o modelo mais confiável, com taxa de alucinação de 0,7%, é o Gemini-2.0-Flash-001 do Google.
A origem desse problema está em como essas ferramentas aprendem. Diferente de uma calculadora que segue regras fixas, um modelo de linguagem aprende por repetição e padrões. Ele não resolve uma soma porque entende o cálculo, mas porque prevê que, após "2 + 2 =", provavelmente vem "4". Essa previsão pode acertar na maioria das vezes, mas não há garantia total. Até os modelos mais avançados podem falhar em operações básicas ou afirmações concretas. Para minimizar esses erros, hoje existem estratégias como conectar os modelos de IA a ferramentas externas que permitem obter resultados mais confiáveis. No entanto, essas soluções técnicas não eliminam completamente o risco: entender como funcionam e quando aplicá-las segue sendo uma responsabilidade humana.
Diante desse panorama, muitas empresas destinam recursos consideráveis para corrigir erros, identificar alucinações e redesenhar processos. Um relatório da McKinsey destaca um aumento nos esforços de mitigação de riscos, particularmente na área de imprecisão. Até mesmo sistemas de inteligência artificial capazes de supervisionar o trabalho de outras IAs já estão sendo desenvolvidos, inaugurando um novo capítulo nessa evolução tecnológica: a automação do controle. Porém, o problema não se resolve com mais gastos, mas com uma estratégia clara — e, portanto, com talentos adequados que saibam buscar as falhas dos modelos para corrigi-las. A chave para navegar esse cenário é aprender a usar a tecnologia de forma inteligente e como complemento, especialmente para pequenas empresas, mais vulneráveis e com orçamento limitado.
No Brasil, 71% das médias e grandes empresas aumentarão seu orçamento de IA, segundo o relatório “IA no Brasil: Aceleração e Desafios”, da consultoria McKinsey. No entanto, embora cada vez mais organizações adotem processos de controle, nem todas focam precisamente na gestão da informação. Conforme o mesmo relatório, apenas 36% dos entrevistados cujas organizações usam IA genérica afirmam que funcionários revisam todo o conteúdo gerado por essa tecnologia antes do uso.
Uma alternativa que muitas organizações consideram é trabalhar com parceiros tecnológicos para o desenvolvimento e implementação de projetos de IA. Contar com aliados que compreendem como aplicar a tecnologia e supervisionar seu uso possibilita a automação sem cair em erros comuns. Sua experiência em implementação, validação de modelos e supervisão humana contribui para reduzir riscos e otimizar resultados. Não basta usar tecnologia avançada; é preciso saber quando, como e com quais objetivos aplicá-la.
A IA não oferece soluções perfeitas, mas funciona como uma ferramenta poderosa — desde que usada com critério. As alucinações seguirão existindo, e o desafio está em aprender a detectá-las e minimizar seu impacto. O sucesso ou fracasso ao usar IA não depende apenas da tecnologia, mas de como as empresas projetam e aplicam estratégias para aproveitá-la de forma eficaz, garantindo que sua implementação esteja alinhada tanto com metas imediatas quanto com planos futuros.
*Diego Garagorry é COO da Nearsure.
Sobre a Nearsure
A Nearsure é uma parceira estratégica em inovação digital e crescimento empresarial. Com mais de 10 anos de trajetória, oferece soluções tecnológicas integrais que permitem às empresas destacarem-se na era digital e da inteligência artificial. Sua proposta cobre todo o ciclo de transformação digital: desde o design de produtos e a implementação de plataformas CXM e CE, até o desenvolvimento de software sob medida, a otimização de plataformas, operações em nuvem, gestão de dados e soluções baseadas em inteligência artificial, incluindo tecnologias avançadas de GenAI e low-code.
A empresa conta com uma equipe de mais de 600 profissionais altamente qualificados, distribuídos em 28 países da América Latina, com uma média de mais de sete anos de experiência. Graças ao seu modelo distribuído e a uma taxa de retenção de talentos de 90%, a Nearsure garante soluções escaláveis, ágeis e personalizadas que respondem aos desafios de transformação digital de clientes em todo o continente.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
ANA PAULA SARTORI
[email protected]