Algoritmos que procuram reação são manipulação dos engenheiros – Daniela Braga

Lisboa, 20 nov 2025 (Lusa) – A fundadora e presidente executiva (CEO) da Defined.ai afirma, em entrevista à Lusa, que os algoritmos que procuram uma reação são manipulação dos engenheiros e defende que os modelos de IA deveriam ter um rótulo de ingredientes.

Questionada sobre a informação que os algoritmos dão, por exemplo nas redes sociais, visarem provocar uma reação, a especialista em inteligência artificial (IA) explica a sua posição.

“A questão dos algoritmos darem ‘outputs’ com o objetivo de obter uma reação, isso sim é manipulação dos engenheiros dos algoritmos”, afirma a CEO, porque “até certo ponto há uma ‘Black Box’ [caixa negra onde está o processo interno da IA] nos modelos”.

Os modelos “podem ter uma constituição” e essa é o que “distingue as empresas” que “são responsáveis, que tentam seguir uma pauta moral responsável das outras que não tentam”, prossegue.

Os algoritmos “podem e devem ter ‘guardrails’ [barreiras de proteção] ou uma constituição, há todo um processo ao nível de dados que se faz para programar um algoritmo dessa maneira”, explica Daniela Braga.

“Os algoritmos aprendem como as crianças, é possível ensiná-los a comportarem-se de certa forma” e a não responder e a evitar coisas, “isto é muito do trabalho que fazemos na realidade na Defined, fazemos aquilo que se chama o trabalho de ‘red teaming'”, diz.

O ‘red teaming’ “é trazer humanos para pôr o modelo à prova”, quer seja com perguntas que são fora da caixa ou que desafiam factualidade ou puxem os limites ideológicos” e “avaliar as respostas do modelo”.

“E, dentro dessas respostas, ensinar, trazer dados que vão encaminhar o modelo no sentido responsável, é por isso que há empresas que não o fazem e há empresas que o fazem”, sintetiza.

Sobre haver um selo de garantia para os modelos de IA, Daniela Braga defende antes um ‘nutrition label’ – rótulo de ingredientes.

“Não sei até que ponto uma entidade reguladora pode certificar um modelo completamente, porque a inteligência artificial ainda é tão incipiente”, até porque há temas em que todas as sociedades estão de acordo como a questão da exploração sexual de menores.

Portanto, “isso seria um selo de segurança”, mas já sobre certas opiniões, onde se pode discutir quais são os limites da liberdade de expressão, “são matérias mais cinzentas”.

“Atenção, eu só estou a dizer que uma entidade sozinha, com a dinâmica desta tecnologia, da forma como está a evoluir tão rápido, não sei se é suficiente”. Mas transparência, “deixar que o consumidor ou o cliente final possa perceber o que está dentro, como foi construído, um bocado como os produtos orgânicos”, isso “sim, eu acho que é mais importante”, considera.

Sobre a escassez de dados – Elon Musk disse que já se consumiu toda a inteligência humana na Internet -, ressalta que “isso é verdade no que respeita a dados públicos”.

“Dados públicos, digo sempre isto, não quer dizer que sejam gratuitos e não quer dizer que (…) sejam isentos de ‘copyright’ [direitos de autor]”, adverte Daniela Braga.

Os dados públicos “são só a ponta do iceberg da produção de dados que a humanidade está a fazer diariamente”. Debaixo dessa ponta “existe um universo de dados fechados e privados que são esses, sim, com que nós trabalhamos, consentidos, e esse universo é muito superior aos dados públicos”, e um fator diferenciador, diz, vendo isso “como uma oportunidade”.

A Defined.ai é uma empresa especializada em dados para IA. Além de fazer recolha de dados através de uma plataforma de ‘crowdsourcing’ e disponibilizar serviços de melhoria e otimização de modelos, é detentora de um ‘marketplace’ de dados de alta qualidade e eticamente recolhidos para treino para IA. Tem sede em Seattle, EUA, com um centro de I&D e operações em Lisboa.

*** Alexandra Luís (texto), Hugo Fragata (vídeo) e António Pedro Santos (foto), da agência Lusa ***

ALU // CSJ

Lusa/Fim