Неограниченные большие языковые модели: новая угроза безопасности для шифрования индустрии.

robot
Генерация тезисов в процессе

Неограниченные большие языковые модели: новая угроза безопасности в области шифрования

С быстрым развитием технологий искусственного интеллекта, такие передовые модели, как серия GPT и Gemini, глубоко изменяют наш способ работы и жизни. Однако этот технологический прогресс также приносит потенциальные угрозы безопасности, особенно с появлением неограниченных или злонамеренных крупных языковых моделей.

Пандора: Как неограниченные большие модели угрожают безопасности шифрования?

Безлимитные LLM — это языковые модели, которые были специально разработаны, модифицированы или «взломаны», чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Несмотря на то, что разработчики основных LLM вкладывают значительные ресурсы в предотвращение злоупотреблений моделями, некоторые лица или организации с недобрыми намерениями начинают искать или разрабатывать неограниченные модели. Эта статья исследует потенциальные угрозы таких моделей в сфере шифрования, а также связанные с ними проблемы безопасности и стратегии реагирования.

Способы злоупотребления неограниченным LLM

Появление таких моделей значительно снизило барьер для реализации сложных атак. Даже люди без профессиональных навыков могут легко генерировать вредоносный код, создавать фишинговые письма или планировать мошенничество. Нападающим достаточно получить веса и код открытой модели, а затем с помощью набора данных, содержащего вредоносное содержание, провести дообучение, чтобы создать кастомизированные инструменты атаки.

Эта тенденция принесла множество рисков:

  1. Злоумышленники могут настраивать модели для конкретных целей, создавая более обманчивый контент, чтобы обходить обычные проверки содержимого.
  2. Модель может быть использована для быстрой генерации вариантов кода фишинговых сайтов или для настройки мошеннических текстов для различных платформ.
  3. Доступность открытых моделей способствовала формированию подпольной экосистемы ИИ, предоставив благоприятные условия для незаконной деятельности.

Вот несколько типичных неограниченных LLM и их потенциальные угрозы:

WormGPT:черная версия GPT

WormGPT — это злонамеренная LLM, которая продается на подпольных форумах и утверждает, что не имеет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячный доступ всего за 189 долларов.

В области шифрования WormGPT может быть злоупотреблен для:

  • Генерация реалистичных фишинговых писем, побуждающих пользователей нажимать на вредоносные ссылки или раскрывать приватные ключи.
  • Помощь в написании вредоносного кода, такого как кража файлов кошельков и мониторинг буфера обмена.
  • Запускать автоматизированные мошеннические схемы, направляя жертв участвовать в ложных проектах.

DarkBERT: двусторонний меч контента даркнета

DarkBERT - это языковая модель, специально обученная на данных темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Однако, если ее неправильно использовать, информация, которой она располагает, может привести к серьезным последствиям.

В области шифрования потенциальные риски DarkBERT включают:

  • Сбор информации о пользователях и командах проектов, реализация точного мошенничества.
  • Копирование зрелых методов кражи криптовалюты и отмывания денег в даркнете.

FraudGPT:многофункциональный инструмент для интернет-мошенничества

FraudGPT самопровозглашает себя улучшенной версией WormGPT, в основном продаваясь в даркнете и на хакерских форумах. Его злоупотребления в области шифрования включают:

  • Генерация реалистичных фальшивых проектов шифрования и маркетинговых материалов.
  • Массовое создание фишинговых страниц, имитирующих известные биржи.
  • Массовое производство ложных отзывов, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
  • Имитация человеческого диалога, побуждение пользователей раскрывать конфиденциальную информацию.

GhostGPT:неподконтрольный моральным нормам AI помощник

GhostGPT является четко ориентированным на отсутствие моральных ограничений AI-чат-ботом. В области шифрования его можно использовать для:

  • Генерация высоко реалистичных фишинговых писем, выдающих себя за ложные уведомления от основных бирж.
  • Быстрое создание кода смарт-контракта с скрытой задней дверью.
  • Создание вредоносного программного обеспечения с возможностью трансформации для кражи информации о кошельках.
  • В сочетании с другими инструментами ИИ генерировать поддельный голос проекта для осуществления телефонного мошенничества.

Venice.ai: потенциальные риски доступа без цензуры

Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями. Хотя его цель состоит в том, чтобы предоставить пользователям открыенный опыт AI, он также может быть злоупотреблен для создания вредоносного контента. Потенциальные риски включают:

  • Используйте модели с меньшими ограничениями для обхода цензуры, создавая шаблоны фишинга или идеи атак.
  • Снизить порог для злонамеренных подсказок.
  • Ускорьте итерацию и оптимизацию речевых техник атак.

Стратегия реагирования

Столкнувшись с новыми угрозами, возникающими из-за неограниченных LLM, шифрование в индустрии требует комплексного подхода:

  1. Увеличить вложения в технологии проверки, разработать инструменты, способные выявлять и блокировать злонамеренный контент, сгенерированный ИИ.
  2. Продвигать строительство способности модели к предотвращению джейлбрейка, исследовать механизмы водяных знаков и отслеживания.
  3. Создание и совершенствование этических норм и механизмов регулирования, чтобы ограничить разработку и злоупотребление вредоносными моделями с самого начала.
  4. Укрепление образования пользователей, повышение способности к распознаванию контента, созданного ИИ.
  5. Способствовать сотрудничеству в отрасли, делиться разведкой угроз и лучшими практиками.

Пандора: Как неограниченные большие модели угрожают безопасности шифрования?

Только совместные усилия всех сторон безопасной экосистемы смогут эффективно противостоять этой новой угрозе безопасности и защитить здоровое развитие шифрования индустрии.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 7
  • Поделиться
комментарий
0/400
LiquidityNinjavip
· 6ч назад
Также следует обратить внимание на управление рисками.
Посмотреть ОригиналОтветить0
SelfCustodyBrovip
· 6ч назад
Будьте осторожны с мошенничеством с использованием ИИ
Посмотреть ОригиналОтветить0
BearMarketGardenervip
· 6ч назад
мир криптовалют, полный бед и несчастий
Посмотреть ОригиналОтветить0
TxFailedvip
· 6ч назад
Угрозы от ИИ слишком страшные.
Посмотреть ОригиналОтветить0
AltcoinHuntervip
· 6ч назад
неудачники刀得磨
Посмотреть ОригиналОтветить0
ClassicDumpstervip
· 6ч назад
Будут играть для лохов игроки на домашнем стадионе.
Посмотреть ОригиналОтветить0
ColdWalletGuardianvip
· 6ч назад
Серьезная угроза безопасности пользователей
Посмотреть ОригиналОтветить0
  • Закрепить