Redes neurais profundas de última geração, um tipo de tecnologia de aprendizado de máquina usada para implementar a inteligência artificial (IA), ganharam manchetes por vários anos por causa de sua capacidade de traduzir idiomas, escrever poesia e gerar tweets, entre outras tarefas criativas.
Mais recentemente, o GPT-4 e seu antecessor, o ChatGPT, dois modelos de IA conversacionais que usam aprendizado profundo, foram apontados como “divisores de águas” que vão “transformar a maneira como todos nós trabalhamos”. Tanto o GPT-4 (Generative Pretrained Transformer 4 [Transformador pré-treinado generativo 4]) quanto o ChatGPT são muito mais versáteis do que os chatbots tradicionais. Eles produzem respostas de texto mais humanas para perguntas e solicitações e podem "entender" o contexto de uma consulta de pesquisa ou "conversa" escrita e interpretar a intenção por trás da consulta de um usuário. Os recursos exclusivos do ChatGPT ajudaram a torná-lo o aplicativo de consumo de crescimento mais rápido da história.
Os chatbots de IA podem ajudar as pessoas a obter respostas impressionantes semelhantes às humanas ou até mesmo criar certos aplicativos, ao ponto de seus recursos gerarem preocupações de que possam ser usados por hackers para criar campanhas de phishing.
Para entender melhor as implicações de segurança do GPT-4 e do ChatGPT, é importante entender como eles podem ser "treinados" para escrever conteúdo para campanhas de phishing, bem como as diferenças entre campanhas de phishing direcionadas simples e altamente personalizadas.
Os invasores sempre exploraram as últimas tendências e tecnologias, desde serviços de armazenamento em nuvem até criptomoedas. Dessa forma, o surgimento da IA generativa serve como um lembrete importante para as organizações garantirem que a segurança de seus e-mails seja capaz de bloquear campanhas avançadas de phishing, independentemente de quem, ou o que, escreveu a mensagem.
Os modelos que alimentam os chatbots de IA atuais representam novos marcos no processamento de linguagem natural (PLN), um ramo da IA que permite que as máquinas “entendam” e respondam a textos ou palavras faladas da mesma maneira que os humanos. O PLN combina modelagem baseada em regras da linguagem humana com vários modelos para ajudar os computadores a entender o que estão processando.
Muitos aplicativos, como ferramentas de monitoramento de mídia social e assistentes de voz como Siri, usam o PLN há anos. Mas o ChatGPT e o GPT-4, que foram treinados em bilhões de parâmetros de texto e imagem, são inquestionavelmente mais avançados.
Cada um representa o chamado "Modelo de linguagem ampla", um modelo de PLN baseado em rede neural que foi treinado para fazer previsões sobre qual é a próxima palavra mais lógica a seguir em uma determinada frase. Descobriu-se que essa técnica de treinamento produz modelos de PLN que também são bons em muitas outras tarefas.
A forma como a OpenAI (a criadora do ChatGPT e do GPT-4) aplicou essa técnica representa um marco significativo. A OpenAI levou o treinamento um passo além de outros aplicativos, usando novas técnicas para incorporar opiniões humanas em textos ou imagens produzidas e treinamento especializado para seguir instruções em prompts. Como resultado, seus modelos são ajustados para gerar uma conversa com mais nuances e humana.
As respostas articuladas geradas pelo ChatGPT e GPT-4 são destinadas ao bem. No entanto, os criminosos cibernéticos podem explorar suas capacidades como uma ferramenta para desenvolver campanhas de phishing.
O phishing é a causa mais comum de violação de dados e um ponto de entrada comum para ransomware.
Como é aplicada engenharia social aos e-mails de phishing para imitar entidades legítimas, eles podem ser difíceis de identificar à primeira vista. No entanto, historicamente, identificadores comuns de mensagens de phishing (especialmente aquelas geradas por criminosos que não falam/escrevem o idioma nativo da vítima) incluem gramática incorreta, palavras com erros ortográficos ou mal utilizadas e estruturas de sentenças inadequadas.
Em janeiro de 2023, a empresa de inteligência contra ameaças Recorded Future relatou que o ChatGPT pode ser usado por criminosos cibernéticos para atividades como a criação de mensagens de phishing de aparência autêntica.
A Recorded Future descobriu que, semanas após o lançamento do ChatGPT, os agentes de ameaças na dark web e fontes de acesso especial estavam compartilhando conversas do ChatGPT de prova de conceito que permitem o desenvolvimento de malware, engenharia social e desinformação.
Também houve relatos de invasores explorando a popularidade do ChatGPT e GPT-4, por exemplo:
Os pesquisadores descobriram vários casos em que o nome e as imagens do ChatGPT da OpenAI foram falsificados em sites de phishing para espalhar malware ou roubar informações de cartão de crédito.
Existem aplicativos falsos de ChatGPT que, após o download, implantam campanhas de phishing para roubar informações dos usuários.
Imediatamente após o lançamento do GPT-4, os golpistas começaram a enviar e-mails de phishing e twittar links de phishing sobre um token da OpenAI falso.
Tecnicamente, a OpenAI proíbe o uso de seus modelos para a “geração de malware”, “atividade com alto risco de dano econômico”, “atividade fraudulenta ou enganosa” e qualquer outra atividade ilegal. Seus modelos não escrevem e-mails de phishing ou ajudam a criar sites de phishing se solicitados; no entanto, eles podem simplificar como os hackers criam campanhas de phishing. Simplesmente, os chatbots de IA podem possibilitar que todos, incluindo invasores, aprimorem suas habilidades de escrita rapidamente.
Nas mãos erradas, o ChatGPT e o GPT-4 podem ser explorados para criar mensagens de phishing mais autênticas e bem escritas e sites que podem burlar a segurança de e-mail tradicional ou filtros anti-phishing.
Os invasores sabem que precisam apenas atrair uma vítima para um clique ou conversa para roubar credenciais, informações ou dinheiro. Isso é evidente em ataques de phishing de "emprego falso" direcionados a candidatos a emprego, golpes que imitam entidades beneficentes direcionados a doadores e golpes românticos direcionados a pessoas que buscam encontros on-line.
Hoje, as redes neurais mais poderosas não são capazes de “conhecer” os detalhes pessoais dos cidadãos comuns ou a estrutura organizacional e de comunicação específica de qualquer empresa. Mas um invasor que combine o poder dos chatbots de IA com pesquisa suficiente sobre a vítima pretendida pode adaptar as mensagens de phishing em grande escala, tornando ainda mais difícil para os usuários detectar e-mails maliciosos.
Os criminosos cibernéticos já usam ataques de comprometimento de e-mail corporativo(BEC) altamente direcionados e de baixo volume para fraudar organizações com sucesso. Os BECs normalmente representam um funcionário ou executivo específico com quem a vítima pretendida se corresponde regularmente. O comprometimento de e-mail de fornecedor (VEC), uma forma de BEC, baseia-se no comprometimento das contas de um terceiro confiável (como um vendedor ou fornecedor) e espelha as mensagens trocadas anteriormente. Como o BEC e o VEC exploram relacionamentos "confiáveis", eles podem escapar dos tradicionais gateways seguros e autenticação de e-mails. Os ataques de BEC já custaram às empresas mais de US$ 43 bilhões em todo o mundo.
Os invasores sempre exploram novas tecnologias a seu favor. Felizmente, as inovações de segurança podem identificar mensagens maliciosas que ignoram as defesas legadas ou a conscientização do usuário. Modelos sofisticados de aprendizado de máquina foram criados e treinados ao longo dos anos para examinar muitos sinais, além de apenas texto ou imagens, para detectar e bloquear phishing.
As mensagens de e-mail contêm quantidades significativas de informações adicionais nos campos de cabeçalho e metadados, incluindo informações sobre de onde o e-mail foi enviado, a infraestrutura do servidor de origem e seu caminho de transmissão. Além dos cabeçalhos, outros detalhes em uma mensagem, como URLs e links específicos, anexos, membros da lista de distribuição, tom e muito mais precisam ser avaliados.
A segurança de e-mail preventiva da Cloudflare, parte de sua plataforma Zero Trust, analisa vários sinais gerados pelo conteúdo do e-mail, incluindo:
Análise de sentimento para detectar mudanças em padrões e comportamentos (escrita de padrões e expressões)
Análise estrutural de cabeçalhos, corpo da cópia, imagens, links e cargas usando heurística e modelos de aprendizado de máquina projetados especificamente para esses sinais
Gráficos de confiança que avaliam gráficos sociais de parceiros, histórico de envio e possíveis imitações de parceiros
A Cloudflare também utiliza inteligência obtida da média de ~165 bilhões de ameaças cibernéticas bloqueadas a cada dia e de 3,6 bilhões de consultas diárias de DNS. Com essa inteligência, os clientes da Cloudflare podem bloquear domínios maliciosos, isolar seus usuários de conteúdo suspeito da web, impedir que os usuários divulguem credenciais em sites de phishing e interromper o phishing em diferentes vetores de ataque.
Essas e outras técnicas ajudam a impedir que invasores explorem a confiança implícita dos usuários nas comunicações comerciais. A abordagem geral, chamada de extensão do Zero Trust para defesa contra ameaças, é baseada em três princípios básicos:
Presumir a violação: presuma que as campanhas de phishing estão sempre sendo configuradas; verifique a internet para procurar proativamente a infraestrutura do invasor e bloquear ataques de phishing antes que cheguem à caixa de entrada.
Nunca confiar: não confie nas comunicações comerciais simplesmente porque elas têm autenticação de e-mail configurada, são de domínios respeitáveis ou são de alguém com quem um usuário corporativo já se comunicou antes.
Sempre verificar: verifique continuamente todos os usuários e solicitações, mesmo que estejam dentro da rede corporativa.
É claro que os invasores vão usar qualquer ferramenta prontamente disponível, como novos chatbots de IA, para melhorar suas táticas. Ficar constantemente na defesa ou esperar para determinar se novas ameaças cibernéticas são realidade pode colocar uma organização em maior risco. Em vez disso, “presuma a violação”, “nunca confie” e “sempre verifique” para se proteger melhor contra qualquer campanha de phishing.
Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.
Para explorar os tipos de campanhas de phishing que a Cloudflare detecta e bloqueia, faça a demonstração autoguiada de segurança de e-mail.
Após ler este artigo, você entenderá:
Como os chatbots de IA de conversação geram texto
Como os invasores podem explorar o ChatGPT ou o GPT-4 para criar campanhas de phishing
Como se proteger contra ameaças de phishing geradas por IA