Exposição de dados pessoais potencializa golpes que usam IA

Exposição de dados pessoais potencializa golpes que usam IA
Exposição de dados pessoais potencializa golpes que usam IA

Em 2022, os consumidores dos Estados Unidos tiveram um prejuízo de quase nove milhões de dólares por causa de golpes financeiros, segundo a Federal Trade Commission (FTC), agência do governo que investiga contratos comerciais e dados fiscais de empresas e pessoas físicas. O número representou um aumento de mais de 30% comparado com 2021. Mais de dois milhões de consumidores relataram que perderam dinheiro para golpistas, a maioria através de fraudes em compras on-line. 

A pesquisa “IA generativa e segurança cibernética: futuro brilhante ou campo de batalha empresarial”, da Deep Instinct, empresa de cibersegurança, entrevistou mais de 650 profissionais seniores de operações de segurança sobre aumento nos ataques em 2022. Para 85% deles, este crescimento tem a ver com o uso de ferramentas de IA.  

Segundo Marcelo Lau, coordenador do MBA em Cibersegurança do Centro Universitário FIAP, a desinformação é uma das maiores preocupações quando se trata de Inteligência Artificial. Através de deep fakes ou aprendendo os costumes de pessoas reais, a IA Generativa ajuda a personificar indivíduos que não existem e faz as vítimas acreditarem que estão falando com pessoas verdadeiras. “Existe um site em que é possível pegar um pequeno trecho de áudio de alguém, clonar, e fazer com que qualquer conteúdo textual vire um conteúdo falado. Por isso, não podemos acreditar fielmente só na voz de alguém, temos que estar acostumados à forma do indivíduo se comunicar, fazer perguntas para confirmar a identidade e estar sempre atentos”, afirma Lau. 

De acordo com o especialista, é muito fácil criar material e seres que não existem, e até mesmo se passar por outra pessoa pois, além de ferramentas que fazem isso, existem muitas informações pessoais disponíveis na internet. Em 2021, houve um mega vazamento de dados, em que 223 milhões números de CPF foram expostos, acompanhados de nome, sexo, data de nascimento, nível de escolaridade, benefícios do INSS e programas sociais, endereço, fotos de rosto, score de crédito, dados financeiros e cadastrais de serviços de telefonia etc. 

Com os dados e informações pessoais de alguém, a IA pode automatizar a ação do crime. “O golpista vai buscar informações atreladas à sua vida financeira, se possível, e vai tentar lhe atacar com um conteúdo que aparentemente é crédulo”, conta o coordenador da FIAP. Com este material à disposição, é simples usar uma ferramenta de deep fake ou de áudio, para passar mais credibilidade à vítima e fazê-la fornecer senhas, permitir acesso a algo ou fazer alguma transação para o criminoso. 

Marcelo Lau sugere criar mecanismos criativos e humanos para combater o problema de fraudes e, consequentemente, da inteligência artificial, como por exemplo, criar palavras chaves com familiares, ligar para a pessoa que supostamente está mandando mensagem e confirmar o conteúdo, ou fazer perguntas que confirmem a identidade de quem está entrando em contato. 

Para o especialista, qualquer pessoa que esteja eventualmente desatenta ou desinformada se torna um alvo para os criminosos. “É importante orientar as pessoas, de forma simples, para beneficiar o cidadão que às vezes está longe de consumir esse conteúdo, sobre como estamos suscetíveis a golpes. Estar ciente dos riscos que corremos é a melhor maneira de se prevenir”, conclui o coordenador. 

Está gostando do conteúdo? Compartilhe!

VOCÊ FAZ A NOTÍCIA

Aqui você faz a notícia enviando fotos, vídeos e sugestões de reportagens para a nossa redação.

Postagens Recentes