finanças
Finanças
A inteligência artificial facilita a vida em mil detalhes. Só que, por trás dessa ajuda invisível, esconde-se um lado menos inocente. É assim que nascem os deepfakes: falsificações tão realistas que transformam mentira em verdade diante dos nossos olhos.
Segundo um estudo da iProov realizado em 2025, 74% das pessoas manifestaram preocupação com o impacto social dos deepfakes. Ainda mais revelador: 22% dos inquiridos admitiram nunca ter ouvido falar do termo “deepfake”. Outra consequência direta é a perda de confiança: 49% afirmaram sentir menos segurança nas redes sociais desde que souberam da existência destes conteúdos falsos.
A palavra deepfake junta dois conceitos: deep learning (aprendizagem profunda, um ramo da inteligência artificial) e fake (falso). Trata-se de conteúdos (vídeos, áudios ou imagens) criados ou manipulados com recurso à IA, de forma tão convincente que parecem autênticos.
Este tipo de tecnologia tem duas faces. De um lado, há aplicações positivas, como no cinema ou na publicidade, onde se usa para rejuvenescimento de atores ou criação de efeitos especiais. De outro, há o lado sombrio: manipulações feitas para enganar, difamar, extorquir ou espalhar desinformação. E é aí que o problema começa.
Por detrás dos deepfakes está um tipo de inteligência artificial que “aprende” a imitar padrões humanos. Analisa milhares de imagens ou gravações reais para perceber como alguém fala, se movimenta ou expressa emoções. Depois, utiliza essa informação para gerar novas versões: falsas, mas incrivelmente realistas.
O processo acontece através de duas redes neurais que trabalham em conjunto: uma cria o conteúdo falso e a outra tenta detetá-lo. É um jogo constante entre criador e verificador, em que cada tentativa aperfeiçoa o resultado.
Com o tempo, os vídeos tornam-se tão perfeitos que até os especialistas têm dificuldade em distinguir o que é real do que é manipulado.
Os mais comuns são os deepfakes em vídeo, onde o rosto ou o corpo de uma pessoa é substituído por outro. É o tipo de manipulação mais partilhado e também o mais perigoso, porque combina imagem, voz e movimento.
Existem ainda deepfakes de áudio, que clonam a voz de alguém com base em pequenas amostras gravadas. Bastam poucos segundos para reproduzir timbre, ritmo e emoção com espantosa precisão.
Imagine receber uma chamada da sua mãe, do seu filho ou de um amigo a pedir uma transferência urgente.
A voz é igual, as expressões são as mesmas. Mas pode não ser quem pensa.
Os deepfakes de voz e vídeo conseguem reproduzir tons, pausas e emoções reais. É por isso que, nestes casos, nunca deve agir de imediato.
Faça uma pausa, desligue e confirme o pedido por outro canal: ligue diretamente à pessoa ou envie uma mensagem por um número que já conhece.
Se o pedido for legítimo, a pessoa vai compreender. Se for um deepfake, acabou de evitar uma burla.
Por fim, há os deepfakes de imagem, que fabricam rostos ou fotografias inteiras que nunca existiram. Muitas vezes, são usados de forma abusiva, como no caso da pornografia não consensual ou na criação de perfis falsos nas redes sociais.
O impacto dos deepfakes vai muito além de vídeos manipulados. Estamos a falar de um fenómeno que mexe com a confiança. E, quando a confiança se quebra, tudo o resto fica em causa.
Nas redes sociais, estas falsificações são terreno fértil para a desinformação. Um político pode ser “apanhado” a dizer algo que nunca disse, ou uma figura pública pode ser alvo de difamação. O resultado é a erosão da credibilidade das instituições e a criação de dúvidas sobre tudo o que vemos e ouvimos.
No mundo empresarial, o perigo é igualmente real. Em 2024, uma empresa britânica perdeu 25 milhões de dólares depois de os funcionários serem enganados numa videochamada onde todos os participantes (inclusive o diretor financeiro) eram falsificações criadas por IA. O caso é extremo, mas mostra como a tecnologia pode ser usada de forma criminosa.
E há ainda a dimensão mais íntima: a utilização de deepfakes para criar pornografia sem consentimento. Rostos de pessoas reais (muitas vezes mulheres e até menores) são sobrepostos a corpos alheios, em vídeos sexualmente explícitos que circulam na internet sem controlo. Além do dano psicológico, as consequências legais e reputacionais podem ser devastadoras.
Detetar um deepfake é como jogar um jogo de diferenças, mas cada vez mais difícil. Ainda assim, há pequenos sinais que denunciam o falso. O segredo está em abrandar, observar com calma e deixar que o cérebro faça aquilo que a IA ainda não domina: reparar nos detalhes.
Algo bem feito pode enganar à primeira vista, mas raramente é perfeito. Alguns detalhes continuam a escapar:
Nenhum destes sinais é garantia absoluta, mas juntos ajudam a afinar o olhar para distinguir o real do fabricado.
As vozes clonadas são cada vez mais convincentes, mas também têm falhas subtis. Repare em:
Em Portugal, ainda não existe uma lei específica sobre deepfakes, mas várias normas já permitem agir nestes casos. O Código Civil protege o direito à imagem, o Código Penal abrange crimes como burla, difamação ou falsidade informática, e o RGPD trata a imagem e a voz como dados pessoais - o que torna a sua utilização sem consentimento ilegal.
A nível europeu, o Regulamento da Inteligência Artificial (AI Act) exigirá que os conteúdos gerados por IA sejam claramente identificados, enquanto o Regulamento de Serviços Digitais (DSA) obriga as plataformas a detetar e remover rapidamente conteúdos falsos.
Até à entrada em vigor total do AI Act, Portugal continua a aplicar estas leis civis, penais e de proteção de dados aos casos de falsificação digital.
Não é preciso ser perito em tecnologia para se proteger. Basta algum sentido crítico, calma e curiosidade. Estas pequenas atitudes fazem toda a diferença:
Se receber uma chamada, mensagem ou áudio com pedidos de dinheiro ou situações de emergência, respire fundo e verifique. Os burlões apostam na pressa para impedir que pense. Confirme fora do canal onde foi contactado: ligue diretamente para a pessoa, faça uma videochamada inesperada ou use uma palavra-passe familiar combinada com antecedência.
Quem publicou o vídeo? O perfil é recente? Há outros meios credíveis a confirmar a informação? Uma simples pesquisa em jornais ou sites oficiais pode esclarecer se se trata de um conteúdo legítimo ou manipulado.
A pressa é inimiga da perceção. Veja o vídeo fotograma a fotograma (no telemóvel, arraste lentamente a barra), amplie a imagem e repare nos olhos, no pescoço e nos lábios. Pequenos detalhes, como um movimento estranho ou luzes incoerentes, podem denunciar uma falsificação.
Plataformas como o TrueMedia, o Deepware ou o DeepFake-o-Meter analisam vídeos e calculam a probabilidade de manipulação. Não são infalíveis, mas ajudam a confirmar suspeitas e a evitar partilhas precipitadas.
Quanto menos fotos e vídeos pessoais estiverem disponíveis online, mais difícil será alguém usá-los para criar deepfakes. Evite publicar conteúdos íntimos, sobretudo de crianças, e reveja as definições de privacidade nas redes sociais.
A literacia digital é o escudo mais eficaz. Converse com familiares sobre o tema e incentive todos a fazer perguntas simples antes de acreditar em algo: quem, o quê, quando, onde e porquê. Este hábito é a melhor forma de distinguir o real do fabricado.
Em Portugal, quase metade das pessoas não sabe como denunciar um deepfake. Isso mostra que, além de tecnologia e leis, é preciso reforçar a literacia digital. Porque a melhor defesa continua a ser o olhar atento e informado.
Se for vítima, é importante agir rápido. Guarde provas (links, capturas de ecrã, datas e ficheiros) e apresente queixa na Polícia Judiciária através do portal qe.pj.pt.
Também pode contactar a Linha Internet Segura (800 219 090) ou recorrer ao site Queixa Eletrónica. Quanto mais cedo denunciar, maior a probabilidade de o conteúdo ser removido e de o caso ser investigado.
Os deepfakes abriram caminho a um novo tipo de fraude digital, mais sofisticada e difícil de detetar. Para enfrentar esta realidade, a banca, e o Santander em particular, está a combater esta nova geração de burlas com a mesma arma que as origina: tecnologia.
No Santander, a monitorização de transações é feita com recurso a inteligência artificial capaz de identificar padrões anómalos: valores fora do habitual, pedidos urgentes, horários invulgares ou destinatários recentes. Estes sistemas não substituem o olhar humano, mas acrescentam uma camada de proteção que funciona 24 horas por dia.
Para reduzir o risco de burlas baseadas em deepfakes, o banco está a investir em tecnologias de verificação de “vivacidade”: mecanismos que distinguem uma pessoa real de uma imagem ou voz gerada por IA. Adicionalmente, está a reforçar os processos de autenticação multifator, exigindo mais do que um simples código ou confirmação num clique para validar operações sensíveis.
Nenhum sistema é infalível, por isso, o conhecimento é a melhor defesa. O Santander aposta em campanhas de literacia digital e financeira, que alertam para esquemas de fraude, explicam como reconhecer pedidos suspeitos e incentivam sempre à verificação por outro canal.
Se algo parecer estranho, pare, pense e confirme: ligue diretamente para a pessoa em questão ou contacte o banco antes de agir.
No conto clássico, o Capuchinho Vermelho foi enganado por alguém que fingia ser a avó. Hoje, os lobos já não vivem na floresta: estão nos telemóveis e usam inteligência artificial para imitar vozes e rostos familiares.
Um simples telefonema pode parecer vindo de um filho, de um amigo ou até do banco. Mas, se o pedido for urgente, envolver dinheiro ou códigos, desconfie.
Nunca partilhe dados, confirme sempre por outro canal e lembre-se: pode parecer real, mas verifique sinais suspeitos na imagem ou linguagem usados pois pode ser falso.
Os conteúdos apresentados não dispensam a consulta das entidades públicas ou privadas especialistas em cada matéria.
Obrigado por partilhar a sua opinião!
Se quiser, utilize o campo abaixo para nos dizer mais sobre o que achou deste artigo para nos ajudar a trazer-lhe mais conteúdo útil.
Obrigado por partilhar a sua opinião!
A sua opinião já foi enviada para as nossas caixas de correio e será sem dúvida muito útil para nos ajudar a melhorar.
Finanças
Phishing: fique a saber o que é e saiba defender-se
Finanças
Como fazer compras online com toda a segurança?
Finanças
O que é o malware e como se proteger desta ameaça?
Informação de tratamento de dados
O Banco Santander Totta, S.A. é o responsável pelo tratamento dos dados pessoais recolhidos.
O Banco pode ser contactado na Rua da Mesquita, 6, Centro Totta, 1070-238 Lisboa.
O Encarregado de Proteção de Dados do Banco poderá ser contactado na referida morada e através do seguinte endereço de correio eletrónico: privacidade@santander.pt.
Os dados pessoais recolhidos neste fluxo destinam-se a ser tratados para a finalidade envio de comunicações comerciais e/ou informativas pelo Santander.
O fundamento jurídico deste tratamento assenta no consentimento.
Os dados pessoais serão conservados durante 5 anos, ou por prazo mais alargado, se tal for exigido por lei ou regulamento ou se a conservação for necessária para acautelar o exercício de direitos, designadamente em sede de eventuais processos judiciais, sendo posteriormente eliminados.
Assiste, ao titular dos dados pessoais, os direitos previstos no Regulamento Geral de Proteção de Dados, nomeadamente o direito de solicitar ao Banco o acesso aos dados pessoais transmitidos e que lhe digam respeito, à sua retificação e, nos casos em que a lei o permita, o direito de se opor ao tratamento, à limitação do tratamento e ao seu apagamento, direitos estes que podem ser exercidos junto do responsável pelo tratamento para os contactos indicados em cima. O titular dos dados goza ainda do direito de retirar o consentimento prestado, sem que tal comprometa a licitude dos tratamentos efetuados até então.
Ao titular dos dados assiste ainda o direito de apresentar reclamações relacionadas com o incumprimento destas obrigações à Comissão Nacional da Proteção de Dados, por correio postal, para a morada Av. D. Carlos I, 134 - 1.º, 1200-651 Lisboa, ou, por correio eletrónico, para geral@cnpd.pt (mais informações em https://www.cnpd.pt/).
Para mais informação pode consultar a nossa política de privacidade (https://www.santander.pt/politica-privacidade).