Imagens falsas geradas pela IA perturbam comunicação em situações de emergência

Foto: yorku.ca

À medida que ferramentas de Inteligência Artificial generativa (genAI) mais avançadas se tornam acessíveis gratuitamente, tem aumentado o número de incidentes com circulação de imagens falsas nas redes sociais. Foi o caso de imagens de incêndios florestais em circulação nas redes sociais, que originou um aviso de alerta emitido pelo Serviço de Incêndios Florestais de British Columbia.

Durante situações de emergência, como os incêndios florestais, quando as pessoas estão preocupadas e precisam de informações confiáveis, essa desinformação digital pode causar danos significativos, espalhando confusão e pânico.

Essa vulnerabilidade à desinformação decorre da dependência das pessoas de atalhos mentais durante momentos de ‘stress’, o que facilita a disseminação e a aceitação da desinformação.

Segundo a Universidade de York, a aceitação de desinformação pode ser influenciada por uma capacidade reduzida de analisar informações, filiações políticas, crenças fixas e até fundamentalismo religioso.

Com base na nova pesquisa da Universidade de York, e experiência em resposta e gestão de emergências, a desinformação gerada por IA durante emergências pode causar danos reais ao atrapalhar os esforços de resposta a desastres.

Os danos causados pela desinformação ou falsas notícias podem ter vários níveis de gravidade e categorizados em danos diretos, indiretos, de curto e de longo prazo. Os danos podem assumir diferentes formas, incluindo ameaças à vida das pessoas, aos seus rendimentos, à sua segurança e às suas redes de proteção.

Para além disso, o foco da desinformação está no impacto em situações de emergência. Informações erradas ou falsas podem condicionar a comunicação clara e gerar o caos ou situações de risco, ao invés de gerar uma mensagem clara.

A Universidade de York aponta quatro questões essenciais para o combate à desinformação, como promover uma cultura de consciência crítica, estabelecer políticas claras para conteúdo gerado por IA em notícias, fortalecer as plataformas de verificação de fatos e análise de metadados e estabelecer consequências legais claras.