'ChatGPT bandido': como submundo da internet cria IA própria para roubar
De gente criando códigos maliciosos sem saber programar a imitação da voz de autoridades, o cibercrime vive uma nova era, graças à inteligência artificial generativa, aquela capaz de criar conteúdo.
Com ela, os cibercriminosos estão atacando mais, de uma forma mais convincente, cirurgicamente e com um menor custo, segundo especialistas ouvidos por Tilt.
O cibercrime costumava exigir experiência substancial em hacking, programação e engenharia social. De um modo geral, a cada ano fica mais fácil se tornar um cibercriminoso. Tanto que já vimos mais ataques de ransomware em 2023 do que em todo o ano de 2022. A expectativa é que essa tendência continue, principalmente habilitada por modelos de IA de código aberto. Eric Clay, especialista em segurança da consultoria canadense Flare
A partir de conversas trocadas entre cibercriminosos na dark web, ele mapeou como os bandidos usam os avanços da IA generativa em múltiplas frentes.
A indústria de serviços do cibercrime
Com a mesma facilidade com que se compra drogas ilegais e quantidades enormes de senhas vazadas, pode-se adquirir na dark web aplicativos maliciosos para invadir empresas.
Essa é a parte da internet invisível para buscadores e outros serviços de indexação, apenas acessada por browsers e aplicativos que garantem o anonimato. Na prática, é toda uma outra internet invisível aos usuários comuns.
"Nos últimos anos, vimos o surgimento do ransomware e do malware como serviço e de outras formas de distribuição de malware que levaram à democratização do hacking, permitindo que até mesmo usuários não sofisticados atacassem consumidores e empresas", afirma Eric Clay
A novidade constatada por Clay é que vários desses serviços agora envolvem inteligência artificial, como versões criminosas de IA conversacional ao estilo ChatGPT. Eles se baseiam em programas de código aberto, criados com intenções honestas e disponibilizados gratuitamente na internet, mas que acabam sendo modificados por criminosos.
Os "ChatGPTs bandidos" vendidos na dark web possuem vários nomes, como WormGPT ou FraudGPT. Um deles, o PentestGPT, é baseado em ferramentas legítimas usadas por profissionais de segurança para averiguar se os sistemas de suas organizações são resistentes, no chamado teste de penetração (pen test, em inglês). Na mão dos hackers, esse chatbot ajuda a localizar vulnerabilidades de segurança desconhecidas para os criadores, as chamadas "zero day".
Mas a maioria dos "GPTs do mal" são usados para um golpe menos sofisticado e mais comum, o phishing, ao criar textos para enganar as pessoas de forma mais convincente.
Em seu uso menos sofisticado, eles facilitam a vida dos "príncipes nigerianos": estrangeiros que, como o autor do e-mail do "príncipe" estrangeiro pedindo depósitos bancários, atacam países distantes.
"Para os criminosos, é útil, porque o texto gerado não vai ter erros gramaticais e vai ser escrito como se fosse um nativo. Antes, eles precisavam de um parceiro local fluente no idioma",
Fabio Assolini, diretor da Equipe Global de Pesquisa e Análise para a América Latina da Kaspersky, empresa de segurança criadora do antivírus com o mesmo nome.
Golpe customizado
Outra possibilidade é popularização do spearphishing. A adição de "spear" (lança) é uma referência à pescaria com arpão. Enquanto o phishing distribui e-mails em massa, no spearphishing, o alvo é uma vítima em particular —por exemplo, um gerente financeiro que tenha acesso privilegiado a credenciais bancárias. O criminoso pode elaborar uma e-mail aparentemente legítimo fingindo ser um chefe ou parte do suporte técnico.
Newsletter
Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.
Quero receberEsse tipo de ataque exigia que se estudasse as vítimas. Ou exigia. "Historicamente, o spearphishing é um dos meios mais eficazes que invasores usam para violar uma empresa. Agora, modelos de linguagem de IA de código aberto permitem que atores maliciosos conduzam ataques de spearphishing em grande escala, o que pode acelerar dramaticamente o cibercrime"
Ferramentas de IA generativa permitem estudar dados abertos para identificar não quem é o chefe e e o funcionário, mas também podem ser usadas para atacar pessoas comuns —por exemplo, usar assunto que tenha sido postado em redes sociais ou outro lugar visível para a IA para criar um e-mail vindo da mãe de uma pessoa.
Outro uso possível, ajudar desenvolvedores a escrever malware, é visto com menor potencial. Para Fábio Assolini, por enquanto não é uma ameaça. "Na parte de código, essas ferramentas ainda deixam muito a deseja. Nós fizemos alguns testes e em vários deles o ChatGPT falhou miseravelmente em gerar código funcional."
Para ele, a maior ameaça é a recriação de imagens e voz por inteligência artificial, o deepfake. Ele é capaz de enganar não só pessoas físicas, como sistemas de identificação baseados em biometria, ao criar e transmitir um vídeo realista da face de uma pessoa.
O risco das mensagens de voz
Tão perigoso quanto vídeo é a voz. E sistemas de recriação de voz estão à frente dos de imagem. Se vídeos de deepfake ainda podem ser detectados por humanos, a voz é bem mais fácil de imitar, e com recursos fáceis de encontrar.
Qualquer vídeo no YouTube já é um sample mais que suficiente para imitar a voz. Imagine o potencial disso num ataque de engenharia social por telefone. Isso já está ocorrendo Assolini, da Kaspersky
As pessoas confiam em vozes muito mais que num e-mail. Segundo o especialista da Kaspersky, pessoas já levadas a fazer transferências bancárias ou ceder senhas após ouvir mensagens de voz simulando seus chefes ou seus pais.
As empresas estão correndo atrás do prejuízo, e usando suas próprias ferramentas de inteligência artificial, como os testes de penetração, mas o cenário não é encorajador.
A IA certamente pode ajudar em alguns casos, mas quando você olha para a história da tecnologia, muitas tecnologias fornecem uma vantagem desproporcional para ataque ou defesa. Acreditamos que, em sua forma atual, é provável que a IA habilite e encoraje substancialmente os hackers, embora leve tempo para que as empresas a usem efetivamente para defesa. Eric Clay, da Flare
Deixe seu comentário