Неограниченные LLM угрожают безопасности шифрования в индустрии. Будьте осторожны с новыми инструментами атак ИИ.

robot
Генерация тезисов в процессе

Потенциальные угрозы искусственного интеллекта: вызовы для индустрии шифрования от неограниченных больших языковых моделей

С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, они глубоко меняют наш образ жизни. Однако этот технологический прогресс также приводит к настораживающей проблеме: появлению неограниченных или злонамеренных крупных языковых моделей.

Безлимитные LLM — это языковые модели, которые были специально разработаны или изменены для обхода механизмов безопасности и этических ограничений мейнстримных моделей. Хотя разработчики мейнстримных LLM вкладывают значительные ресурсы в предотвращение злоупотреблений моделью, некоторые отдельные лица или организации, руководствуясь недобрыми намерениями, начинают искать или разрабатывать неконтролируемые модели. В данной статье будут рассмотрены потенциальные угрозы таких моделей в шифрование-индустрии, а также связанные с ними проблемы безопасности и стратегии их преодоления.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

Угроза неограниченного LLM

Появление таких моделей значительно снизило технический барьер для некоторых злонамеренных действий. Даже без специальных знаний обычные люди могут с их помощью писать вредоносный код, создавать фишинговые письма или планировать мошенничество. Нападающим достаточно получить открытые модели и дообучить их на датасете, содержащем вредоносный контент, чтобы создать индивидуализированные инструменты для атак.

Этот тренд принес множество рисков:

  • Злоумышленники могут настраивать модели для конкретных целей, создавая более обманчивый контент
  • Быстрое создание вариантов кода фишингового сайта и индивидуализированных мошеннических текстов
  • Способствует формированию подпольной экосистемы ИИ, создавая теплую среду для незаконной деятельности

Типичный неограниченный инструмент LLM

WormGPT:темная версия GPT

WormGPT — это открыто продаваемая вредоносная LLM, которая утверждает, что не имеет моральных ограничений. Она основана на открытой модели и обучена на большом количестве данных вредоносного ПО. Ее типичное использование включает:

  • Генерация правдоподобных фишинговых писем, чтобы诱导 пользователя раскрыть свои приватные ключи и другую敏感ную информацию
  • Помощь в написании вредоносного кода, такого как кража файлов кошелька
  • Автоматизация мошенничества, вовлечение жертв в фиктивные проекты

DarkBERT: двусторонний меч контента темной сети

DarkBERT — это модель, обученная на данных с темной сети, изначально предназначенная для исследований безопасности. Однако еслиSensitive информация, которой она владеет, будет использована неправомерно, это может привести к:

  • Реализация точного мошенничества с использованием собранной информации о пользователях для социальной инженерии.
  • Копирование зрелых методов кражи криптовалюты и отмывания денег в даркнете

FraudGPT:инструмент для интернет-мошенничества

FraudGPT является усовершенствованной версией WormGPT с более полным функционалом. Его потенциальные злоупотребления включают:

  • Поддельные проекты шифрования, создание ложных белых книг и маркетинговых материалов
  • Пакетное создание поддельных страниц входа
  • Массовое производство поддельных отзывов, продвижение мошеннических токенов
  • Проведение социальной инженерии, побуждение пользователей раскрывать конфиденциальную информацию

GhostGPT:AI помощник без моральных ограничений

GhostGPT явно позиционируется как чат-бот без моральных ограничений. Возможные способы злоупотребления им включают:

  • Генерация высокореалистичных фишинговых писем
  • Быстрое создание кода смарт-контракта с бекдуром
  • Создание вредоносного ПО с возможностью трансформации для кражи информации о кошельках
  • Развертывание мошеннических роботов, которые вводят пользователей в заблуждение и заставляют участвовать в фиктивных проектах
  • В сочетании с другими инструментами ИИ для создания глубоких подделок, осуществление высококлассного мошенничества

Venice.ai:потенциальные риски доступа без цензуры

Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями. Хотя позиционирование открытое для исследования, оно также может быть использовано в неблаговидных целях:

  • Обойти цензуру для создания вредоносного контента
  • Снизить порог входа для подсказок, что делает злоумышленникам легче получать ограниченный вывод
  • Быстрое тестирование и оптимизация методов атаки

Способы справиться

Появление неограниченных LLM сигнализирует о том, что кибербезопасность сталкивается с новой парадигмой атак, которые становятся более сложными, масштабируемыми и автоматизированными. Для преодоления этой проблемы всем участникам безопасности необходимо совместно работать:

  1. Увеличить инвестиции в технологии обнаружения, разработать инструменты, способные распознавать и блокировать содержание, созданное злонамеренными LLM.
  2. Повышение способности модели к защите от джейлбрейка, исследование механизмов водяных знаков и прослеживания контента
  3. Установить и улучшить этические нормы и механизмы регулирования, чтобы ограничить разработку и злоупотребление злонамеренными моделями с самого начала.

Только совместными усилиями можно обеспечить безопасность шифрования индустрии и более широкого киберпространства во время быстрого развития технологий ИИ.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 9
  • Поделиться
комментарий
0/400
BoredStakervip
· 07-18 15:42
Это слишком страшно.
Посмотреть ОригиналОтветить0
GasGuruvip
· 07-18 14:53
Все в беспорядке...
Посмотреть ОригиналОтветить0
AirdropNinjavip
· 07-18 08:29
Большой Сатоши снова пришел играть за неудачников.
Посмотреть ОригиналОтветить0
SocialAnxietyStakervip
· 07-15 17:38
Блокчейн опять столкнулся с новой кризисом
Посмотреть ОригиналОтветить0
CommunityLurkervip
· 07-15 17:35
Целый день придумывают новые фокусы, рано или поздно что-то произойдет.
Посмотреть ОригиналОтветить0
RugResistantvip
· 07-15 17:10
красные флаги повсюду, вздыхая... это нужно срочно исправить
Посмотреть ОригиналОтветить0
hodl_therapistvip
· 07-15 17:08
Корень проблемы все еще в человеке.
Посмотреть ОригиналОтветить0
quietly_stakingvip
· 07-15 17:08
ловушка с худым ai!
Посмотреть ОригиналОтветить0
CrossChainBreathervip
· 07-15 17:08
Черт, это действительно искусственный интеллект с ограниченными возможностями.
Посмотреть ОригиналОтветить0
Подробнее
  • Закрепить