Ameaças Cibernéticas Aumentam Com Inteligência Artificial
Com a crescente utilização de inteligência artificial, torna-se maior a vulnerabilidade dos usuários às ameaças cibernéticas. Diversas falhas foram detectadas no último ano, em especial no ChatGPT, deixando dados sensíveis de usuários expostos.
A Vulnerabilidade dos Serviços de Inteligência Artificial
Apesar das empresas de inteligência artificial afirmarem não armazenar as informações fornecidas pelos usuários, é crescente o número de incidentes de exposição de dados sensíveis. Especialmente atingido, o ChatGPT tem sido alvo de críticas devido à sua vulnerabilidade.
Com o aumento do uso de IA no desenvolvimento de software, essas ferramentas se tornam uma mina de ouro para cibercriminosos. A desatenção dos usuários e a grande quantidade de informações compartilhadas são elementos-chave que facilitam a exploração de brechas e a obtenção de informações valiosas, como números de cartões de crédito e registros completos de consultas realizadas nos chats.
O Papel da Check Point Research
A Check Point Research, divisão de Inteligência de Ameaças Check Point Software, especializada em cibersegurança, fez uma descoberta alarmante. A empresa identificou uma nova vulnerabilidade nos Modelos de Linguagem Amplio (LLM) utilizados em ChatGPT, Google Bard, Microsoft Bing Chat e outros serviços de IA generativa.
Como uma possível solução, a Check Point Software desenvolveu uma ferramenta de filtragem de URLs, capaz de identificar sites de IA generativa. Isso permite às empresas um maior controle, podendo até mesmo bloquear o uso não autorizado de aplicações de IA generativa.
Risco de Ciberataques na IA Generativa
Desde o lançamento comercial do ChatGPT pela OpenAI em 2022, Check Point Research tem analisado a segurança dessas ferramentas populares. O resultado dessa análise colocou em evidência a possibilidade de aceleração de crimes cibernéticos.
A pesquisa da empresa mostrou como os modelos de IA podem ser usados para criar um fluxo completo de infecção, desde spear-phishing até a execução de códigos maliciosos. A OpenAI implementou algumas medidas de segurança, porém, os cibercriminosos têm encontrado formas de contornar tais restrições.
Isso significa que, sem uma segurança efetiva, os dados privados das empresas podem ser comprometidos, ficando disponíveis para um número ilimitado de usuários, incluindo os próprios cibercriminosos.
Estafas “Inteligentes” no Facebook
Recentemente, foi descoberto que os criminosos cibernéticos têm usado o Facebook para atrair e enganar suas vítimas, obtendo senhas e dados privados. Esses criminosos criam páginas ou grupos falsos na rede social, imitando ferramentas de IA populares.
Os criminosos responsáveis por essas páginas maliciosas no Facebook se empenham para que pareçam autênticas e, dessa forma, ganham credibilidade. Quando um usuário desavisado encontra uma página com milhões de seguidores, é provável que acredite se tratar de uma página confiável.
Os investigadores detectaram que a maioria dos comentários e interações nesses pontos de encontro na rede social são realizados por bots, principalmente com nomes e mensagens em vietnamita. O objetivo principal dessa falsa página do Facebook é enganar os usuários, direcionando-os para um ambiente externo para que baixem um malware.
Finalmente, o arquivo baixado é um malware chamado Doenerium, um ladrão de informações de código aberto que já foi observado em outras fraudes. Este malware usa várias plataformas legítimas, como Github, Gofile e Discord, para comunicação e exfiltração de dados.
Assim, os cibercriminosos conseguem enviar todas as informações roubadas das vítimas por meio da conta “antivirusevasion69” no Github, usando um webhook no Discord. Este é apenas mais um exemplo do perigo crescente das ameaças cibernéticas no mundo da inteligência artificial.