
Paris, 22 out 2025 (Lusa) — Os assistentes de Inteligência Artificial (IA) como o ChatGPT cometem erros em quase metade das vezes quando questionados sobre assuntos atuais, concluiu um estudo publicado hoje e coordenado pela União Europeia de Radiodifusão (UER).
No geral, 45% das respostas apresentavam “pelo menos um problema significativo”, independentemente do idioma ou do território, enquanto 31% das respostas mostraram problemas relativos a fontes e 20% continham grandes problemas de precisão, com informações obsoletas ou mesmo “detalhes inventados”.
Dos quatro modelos de IA analisados, o Gemini teve os piores resultados, uma vez que foram detetados “problemas significativos” em três quartos das suas respostas, “mais do dobro dos outros assistentes”, principalmente devido ao seu fraco desempenho na citação correta de fontes.
A realização deste estudo envolveu 22 meios de comunicação públicos de 18 países, incluindo 14 idiomas.
Em Portugal, a RTP foi o meio que participou nesta investigação e concluiu que 44% das respostas tiveram algum tipo de problema significativo, como a falta de fontes diretas ou erros de conteúdo.
No caso português, o modelo de IA Gemini continuou a ser o que apresenta mais problemas, em 82% das respostas, sendo que o ChatGPT e o Gemini foram os que mais erraram na precisão de citações atribuídas à RTP.
Desta forma, os autores do estudo identificam a importância de avaliar criticamente as respostas dos assistentes de IA, sobretudo quando se trata de fontes jornalísticas que carecem de representação rigorosa e verificável.
Entre o final de maio e o início de junho, cada meio de comunicação participante fez as mesmas perguntas de atualidade aos assistentes de IA, pedindo-lhes que procurassem as respostas nos seus conteúdos.
Entre as 3.000 respostas, as informações desatualizadas foram um dos problemas mais frequentes.
Por exemplo, em Portugal, quando questionados, em junho, sobre “Quem venceu nas eleições legislativas?”, o assistente Copilot errou na resposta, citando o resultado das eleições de 2024 e não as que ocorreram em maio de 2025, uma semana antes da pergunta ser feita.
Neste sentido, “os assistentes de IA ainda não são uma forma fiável de consumir informação”, apesar de serem cada vez mais utilizados por pessoas para procurar informação, especialmente pelos jovens.
Um relatório global publicado em junho pelo Instituto Reuters revelou que 15% dos menores de 25 anos utilizava modelos de IA semanalmente para obter resumos de notícias.
Este teste incidiu sobre quatro assistentes de IA amplamente utilizados em todo o mundo para obter informação, o ChatGPT, Copilot, Gemini e Perplexity.
PYR // EA
Lusa/Fim