A Caixa de Pandora: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

Intermediário6/10/2025, 1:50:06 AM
Com a proliferação de modelos grandes de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão a ser mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de utilizadores, representando uma séria ameaça à segurança da indústria de cripto. Este artigo detalha os princípios, usos e contramedidas destes modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está a transformar profundamente o nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está a emergir gradualmente - o aumento de modelos de linguagem grandes não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança integrados e as restrições éticas dos modelos convencionais. Os desenvolvedores de LLM convencionais normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, informações falsas, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a procurar ou desenvolver modelos irrestritos para motivos como crimes cibernéticos. À luz disso, este artigo revisará ferramentas típicas de LLM irrestritas, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como podem os LLMs sem restrições ser maliciosos?

Tarefas que anteriormente exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "magicamente modificar" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser utilizado para gerar rapidamente variantes de código para sites de phishing ou adaptar textos de fraude para diferentes plataformas de redes sociais; entretanto, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA subterrâneo, fornecendo um terreno fértil para transações ilegais e desenvolvimento. Abaixo está uma breve introdução a esses LLMs irrestritos:

WormGPT: Versão Negra GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns subterrâneos, cujos desenvolvedores afirmam explicitamente que não tem restrições éticas, tornando-o uma versão negra do modelo GPT. É baseado em modelos de código aberto como o GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataque de Comprometimento de E-mail Empresarial (BEC) e e-mails de phishing altamente realistas e persuasivos. Seus abusos típicos no espaço da criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar trocas de cripto, carteiras ou projetos bem conhecidos para enviar pedidos de “verificação de conta” aos usuários, induzindo-os a clicar em links maliciosos ou a vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes com menos habilidades técnicas a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, regista teclas pressionadas, etc.
  • Conduza esquemas automáticos: Responda automaticamente a potenciais vítimas, orientando-as a participar em airdrops falsos ou projetos de investimento.


DarkBERT: Uma Espada de Dois Gumes para Conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e reunir inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, poderia ter consequências graves se atores maliciosos obtivessem isso ou utilizassem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu potencial uso indevido em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação do modus operandi criminal: Replicando táticas comprovadas de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça da Fraude Online

FraudGPT afirma ser uma versão melhorada do WormGPT, oferecendo recursos mais abrangentes, vendido principalmente na dark web e fóruns de hackers, com taxas mensais que variam de 200 a 1.700 dólares. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere white papers falsos, websites oficiais, roadmaps e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login de imitação para bolsas de criptomoeda ou interfaces de conexão de carteira conhecidas.
  • Atividades de bots nas redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com utilizadores desprevenidos e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA não vinculado por restrições morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que imitam bolsas de valores convencionais para emitir falsos pedidos de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento de programação, os atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemónicas. Suas características polimórficas dificultam a deteção por software de segurança baseado em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens de NFT falsas, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de criptografia falsos, investidores ou executivos de bolsas, implementando golpes telefônicos ou ataques de Compromisso de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais de Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais flexíveis. Posiciona-se como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma verdadeira experiência de IA sem restrições, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Contornando a censura para gerar conteúdo malicioso: Os atacantes podem usar modelos com menos restrições na plataforma para criar templates de phishing, propaganda falsa ou ideias de ataque.
  • Baixar o limiar para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de "jailbreaking" de prompts, eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

A emergência de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Estes modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com riscos futuros: por um lado, há a necessidade de aumentar o investimento em tecnologias de deteção para desenvolver sistemas capazes de identificar e interceptar conteúdo de phishing gerado por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e código malicioso; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdo malicioso em cenários críticos como finanças e geração de código; além disso, deve ser estabelecido um quadro ético sólido e um mecanismo regulatório para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [TechFlow] O copyright pertence ao autor original [TechFlow] Se houver alguma objeção à reimpressão, por favor, contacte Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e pontos de vista expressos neste artigo são unicamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões linguísticas do artigo são traduzidas pela equipa Gate Learn, a menos que seja mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.

A Caixa de Pandora: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

Intermediário6/10/2025, 1:50:06 AM
Com a proliferação de modelos grandes de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão a ser mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de utilizadores, representando uma séria ameaça à segurança da indústria de cripto. Este artigo detalha os princípios, usos e contramedidas destes modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está a transformar profundamente o nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está a emergir gradualmente - o aumento de modelos de linguagem grandes não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança integrados e as restrições éticas dos modelos convencionais. Os desenvolvedores de LLM convencionais normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, informações falsas, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a procurar ou desenvolver modelos irrestritos para motivos como crimes cibernéticos. À luz disso, este artigo revisará ferramentas típicas de LLM irrestritas, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como podem os LLMs sem restrições ser maliciosos?

Tarefas que anteriormente exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "magicamente modificar" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser utilizado para gerar rapidamente variantes de código para sites de phishing ou adaptar textos de fraude para diferentes plataformas de redes sociais; entretanto, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA subterrâneo, fornecendo um terreno fértil para transações ilegais e desenvolvimento. Abaixo está uma breve introdução a esses LLMs irrestritos:

WormGPT: Versão Negra GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns subterrâneos, cujos desenvolvedores afirmam explicitamente que não tem restrições éticas, tornando-o uma versão negra do modelo GPT. É baseado em modelos de código aberto como o GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataque de Comprometimento de E-mail Empresarial (BEC) e e-mails de phishing altamente realistas e persuasivos. Seus abusos típicos no espaço da criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar trocas de cripto, carteiras ou projetos bem conhecidos para enviar pedidos de “verificação de conta” aos usuários, induzindo-os a clicar em links maliciosos ou a vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes com menos habilidades técnicas a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, regista teclas pressionadas, etc.
  • Conduza esquemas automáticos: Responda automaticamente a potenciais vítimas, orientando-as a participar em airdrops falsos ou projetos de investimento.


DarkBERT: Uma Espada de Dois Gumes para Conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e reunir inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, poderia ter consequências graves se atores maliciosos obtivessem isso ou utilizassem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu potencial uso indevido em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação do modus operandi criminal: Replicando táticas comprovadas de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça da Fraude Online

FraudGPT afirma ser uma versão melhorada do WormGPT, oferecendo recursos mais abrangentes, vendido principalmente na dark web e fóruns de hackers, com taxas mensais que variam de 200 a 1.700 dólares. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere white papers falsos, websites oficiais, roadmaps e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login de imitação para bolsas de criptomoeda ou interfaces de conexão de carteira conhecidas.
  • Atividades de bots nas redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com utilizadores desprevenidos e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA não vinculado por restrições morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que imitam bolsas de valores convencionais para emitir falsos pedidos de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento de programação, os atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemónicas. Suas características polimórficas dificultam a deteção por software de segurança baseado em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens de NFT falsas, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de criptografia falsos, investidores ou executivos de bolsas, implementando golpes telefônicos ou ataques de Compromisso de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais de Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais flexíveis. Posiciona-se como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma verdadeira experiência de IA sem restrições, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Contornando a censura para gerar conteúdo malicioso: Os atacantes podem usar modelos com menos restrições na plataforma para criar templates de phishing, propaganda falsa ou ideias de ataque.
  • Baixar o limiar para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de "jailbreaking" de prompts, eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

A emergência de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Estes modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com riscos futuros: por um lado, há a necessidade de aumentar o investimento em tecnologias de deteção para desenvolver sistemas capazes de identificar e interceptar conteúdo de phishing gerado por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e código malicioso; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdo malicioso em cenários críticos como finanças e geração de código; além disso, deve ser estabelecido um quadro ético sólido e um mecanismo regulatório para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [TechFlow] O copyright pertence ao autor original [TechFlow] Se houver alguma objeção à reimpressão, por favor, contacte Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e pontos de vista expressos neste artigo são unicamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões linguísticas do artigo são traduzidas pela equipa Gate Learn, a menos que seja mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!