IA de Elon Musk confunde tiroteio com poda de árvore em falha de interpretação

IA Grok de Elon Musk comete gafe ao confundir tiroteio com poda de árvore
A inteligência artificial Grok, desenvolvida pela xAI de Elon Musk e integrada à rede social X (antigo Twitter), cometeu uma série de erros factuais graves ao tentar cobrir um tiroteio em massa ocorrido na praia de Bondi, na Austrália. O incidente, que resultou em múltiplas vítimas, foi interpretado de forma bizarra pelo chatbot, que chegou a descrever um vídeo do confronto como uma
"poda de árvore", levantando sérias preocupações sobre a confiabilidade de IAs em tempo real.
O episódio de desinformação ocorreu durante o ataque a tiros em Bondi Beach, Sydney, que chocou a Austrália. Em vez de fornecer informações precisas sobre os eventos, o Grok divulgou uma série de
"alucinações", termo técnico para quando a IA gera informações falsas ou sem sentido. O chatbot falhou em identificar corretamente a natureza do evento, deturpou fatos cruciais e chegou a inventar detalhes sobre as pessoas envolvidas.
Veja também:
A Misidentificação Bizarra: De Tiros a Poda de Árvore
A falha mais notória do Grok foi a misidentificação de um vídeo crucial do ataque. Quando questionado sobre imagens que circulavam na rede social X, o chatbot descreveu o clipe, que mostrava um homem confrontando um atirador, como
"um vídeo viral antigo de um homem subindo em uma palmeira em um estacionamento, possivelmente para podá-la".
Essa interpretação errônea não foi um caso isolado. O Grok também cometeu erros significativos ao tentar identificar o herói do incidente. O chatbot repetidamente trocou o nome do verdadeiro herói, Ahmed Al Ahmed, um comerciante de 43 anos que desarmou um dos atiradores, por um personagem fictício chamado
"Edward Crabtree". Em outras instâncias, a IA chegou a confundir Ahmed com um refém israelense mantido pelo Hamas por mais de 700 dias.
O Contexto da IA Grok e as Implicações da Desinformação
O Grok é o principal produto da xAI, empresa de inteligência artificial fundada por Elon Musk. A xAI tem como objetivo criar uma IA que seja menos restritiva e mais "rebelde" do que concorrentes como o ChatGPT. O Grok é integrado diretamente à plataforma X, onde pode analisar postagens em tempo real para gerar resumos de notícias e responder a perguntas dos usuários.
O incidente de Bondi Beach expôs as vulnerabilidades da IA em situações de notícias de última hora, onde a verificação de fatos é crucial. A misidentificação de um evento grave como um tiroteio, descrevendo-o como uma poda de árvore, ilustra como os modelos de linguagem grandes podem priorizar a fluência e a plausibilidade sobre a verdade factual. Tais
"alucinações" representam um risco significativo de disseminação de desinformação, especialmente quando a IA é usada como fonte primária de notícias em plataformas de grande alcance.
A Resposta da xAI e a Crítica ao "Jornalismo Legado"
Após a repercussão negativa e as críticas da mídia sobre as falhas do Grok, a xAI foi contatada para comentar o ocorrido. A resposta da empresa, de acordo com relatos, foi um comunicado automático que dizia
"A Mídia Legada Mente", uma referência à crítica frequente de Elon Musk ao jornalismo tradicional. No entanto, o próprio Grok foi flagrado espalhando informações incorretas que contradiziam fontes confiáveis.
Especialistas em IA e jornalismo digital alertam que, embora os chatbots de IA sejam úteis para processar grandes volumes de dados rapidamente, eles ainda não são confiáveis para a verificação de fatos em tempo real durante eventos em desenvolvimento. A confiança excessiva nessas ferramentas pode levar a consequências graves, como a minimização da gravidade de um ataque ou a deturpação da identidade de vítimas e heróis.
