A Comissão Nacional de Proteção de Dados (CNPD) associou-se a um alerta internacional sobre a crescente utilização de ferramentas de inteligência artificial para criar imagens íntimas falsas sem o consentimento das pessoas visadas.
O organismo português juntou-se a várias entidades congéneres a nível mundial para chamar a atenção para os riscos associados à produção e partilha deste tipo de conteúdos, muitas vezes conhecidos como “deepfakes”, que recorrem a tecnologia de IA para manipular ou gerar imagens com aparência real.
Segundo a CNPD, a criação e divulgação de imagens íntimas fabricadas constitui uma grave violação da privacidade e dos direitos fundamentais, podendo provocar danos psicológicos, sociais e profissionais significativos às vítimas. A entidade sublinha ainda que estas práticas podem configurar ilícitos criminais e infrações à legislação de proteção de dados.
O alerta conjunto pretende sensibilizar governos, plataformas digitais e a sociedade civil para a necessidade de reforçar mecanismos de prevenção, denúncia e remoção rápida destes conteúdos, bem como promover maior literacia digital sobre os perigos associados ao uso abusivo da inteligência artificial.
A CNPD recorda que a utilização de dados pessoais — incluindo imagens — sem base legal ou consentimento explícito pode resultar em sanções severas, defendendo uma atuação coordenada entre autoridades nacionais e internacionais para enfrentar o fenómeno.
Fonte:Lusa / Foto:Arquivo