Ciência
05/07/2023 às 12:00•3 min de leitura
Uma das grandes preocupações atuais são as consequências futuras do desenvolvimento da inteligência artificial. Não por acaso, muitos governos estão discutindo esse assunto e formando comitês para debater sobre a segurança desta tecnologia.
O fato é que os seres humanos já usam ferramentas de IA há bastante tempo, mesmo que nem sempre saibam disso. O que ocorre agora é um boom de softwares de inteligência artificial de uso mais visível, como aplicativos que criam textos e imagens.
E se tudo isso pode ter efeitos na vida prática, é bom lembrar que essas ferramentas estão abertas a todos — inclusive os criminosos. Neste texto, compartilhamos 4 formas em que a IA pode ser usadas para aperfeiçoar as atividades ilícitas.
(Fonte: GettyImages)
O phishing é um dos crimes da internet mais efetivos. Ele envolve mandar e-mails, mensagens de texto ou inbox para fazer com que as pessoas respondam mandando informações pessoais. Simplesmente, o golpista joga a "isca" e espera que alguém pegue.
Algumas ferramentas de produção de texto, como o ChatGPT, podem significar uma otimização deste crime, permitindo que golpistas pouco experientes gerem mensagens mais eficazes, por exemplo. Isto porque uma das formas de identificar um golpe é ver que a mensagem é mal escrita. Por isso, há bastante risco de que as ferramentas de IA ajudem a criar contatos mais críveis e plausíveis para capturar as vítimas.
(Fonte: GettyImages)
Os chatbots são ferramentas automatizadas que mantêm conversas com usuários, como os clientes de uma loja. Eles são usados para tentar agilizar a comunicação e trazer eficiência para as empresas.
Elas funcionam por meio de algoritmos de IA, que também podem ser usadas por criminosos que, dessa forma, conseguem ampliar o escopo de seus golpes, atingindo mais gente do que seria possível se fossem manejados apenas por humanos. Essas ferramentas podem, por exemplo, se passar por serviços de banco, na tentativa de obter informações das vítimas no intuito de pegar dados e dinheiro.
(Fonte: GettyImages)
Talvez aqui tenhamos a consequência mais perigosa da inteligência artificial. O termo deepfake — que junta os termos deep learning (aprendizagem profunda em inglês) e fake (que quer dizer falso) — consiste no uso de técnicas de inteligência artificial para emular a figura de uma pessoa falando algo que ela nunca falou, gerando vídeos e áudios falsos.
Já há tecnologia no mercado capaz de produzir esse conteúdo de forma relativamente acessível. Mas isso pode ter consequências terríveis. Pense, por exemplo, no caso de alguém produzir um vídeo pornô falso e usar isso para chantagear alguma pessoa.
Mas há usos criminosos mais cotidianos, como utilizar a IA para imitar a maneira como alguém responde um email, manda mensagens de texto, ou produzir mensagens de voz que soam igual a algum familiar seu. Isso pode ter consequências terríveis em golpes como o do falso sequestro.
E como as tecnologias conseguem emular o jeito que falamos ou o nosso rosto? A resposta é bem simples: pense na quantidade de conteúdos seus que você compartilha (como vídeos, fotos) em redes sociais abertas em que qualquer um pode ir lá e salvar, para depois usar na IA para aprender exatamente o seu jeito. É realmente assustador.
(Fonte: GettyImages)
Há um tipo de crime chamado de brute force (em português, força bruta), que descreve um tipo de ataque que ocorre quando se tenta entrar à força em algum sistema, como um site, um servidor ou um aplicativo. A técnica envolve tentar sucessivamente acertar uma combinação de senhas para ter acesso aos dados de alguém.
Esse ataque em estilo "arrombamento" pode também vir a se beneficiar da IA. Novas ferramentas conseguem testar muitas combinações de caracteres e símbolos que podem corresponder às suas senhas. E como muita gente cria senhas baseadas em informações da própria vida (como aniversários, nome dos animais de estimação, etc.), acaba ficando mais suscetível a esse golpe.
Por isso, o ideal é criar senhas muito complexas ou gerenciadas por softwares específicos que se prestam apenas a isso. Não vai tornar o ataque impossível, mas com certeza vai ajudar a proteger contra ataques vindos de máquinas.