Безмежні великі мовні моделі: нова загроза безпеці у сфері шифрування

robot
Генерація анотацій у процесі

Безмежні великі мовні моделі: нова загроза безпеці в галузі шифрування

З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, відбуваються суттєві зміни у нашій роботі та способі життя. Проте цей технологічний прогрес також приносить потенційні загрози безпеці, особливо з появою не обмежених або зловмисних великих мовних моделей.

Пандора: як безмежні великі моделі загрожують безпеці шифрування в індустрії?

Безмежні LLM — це ті, що були спеціально розроблені, змінені або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча розробники основних LLM витратили значні ресурси на запобігання зловживанням моделями, деякі особи або організації з неналежними намірами почали шукати або розробляти моделі без обмежень. У цій статті буде розглянуто потенційні загрози таких моделей у сфері шифрування, а також пов'язані з ними проблеми безпеки та стратегії реагування.

Способи зловживання безмежними LLM

Поява таких моделей значно знизила поріг для реалізації складних атак. Навіть люди без професійних навичок можуть легко генерувати зловмисний код, створювати фішингові електронні листи або планувати шахрайство. Зловмиснику лише потрібно отримати ваги та код відкритої моделі, а потім використати набір даних з шкідливим вмістом для доопрацювання, щоб створити індивідуальні інструменти для атак.

Ця тенденція принесла багато ризиків:

  1. Атакуючі можуть налаштовувати моделі під конкретні цілі, генеруючи більш обманливий контент, щоб обійти звичайну перевірку контенту.
  2. Модель може бути використана для швидкого генерування варіантів коду фішингових сайтів або для налаштування шахрайських текстів для різних платформ.
  3. Доступність відкритих моделей сприяла формуванню підпільної екосистеми ШІ, створюючи сприятливе середовище для незаконної діяльності.

Ось кілька типових необмежених LLM та їх потенційні загрози:

WormGPT:чорна версія GPT

WormGPT є шкідливим LLM, який продається на підпільних форумах і стверджує, що не має жодних моральних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і був навчений на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ всього за 189 доларів.

У сфері шифрування WormGPT може бути зловжито для:

  • Генерувати реалістичні фішингові листи, щоб спонукати користувачів натискати на шкідливі посилання або розкривати приватні ключі.
  • Допомога в написанні шкідливого коду для викрадення файлів гаманця, моніторингу буфера обміну тощо.
  • Керування автоматизацією шахрайства, спрямування жертв до участі у фальшивих проектах.

DarkBERT: двосічний меч вмісту темної мережі

DarkBERT є мовною моделлю, спеціально навченою на даних з темного вебу, спочатку призначеною для допомоги дослідникам та правоохоронним органам у розумінні екосистеми темного вебу. Однак, якщо її неправильно використовувати, отримана чутлива інформація може призвести до серйозних наслідків.

У сфері шифрування потенційні ризики DarkBERT включають:

  • Збирати інформацію про користувачів та команди проектів, реалізувати точне шахрайство.
  • Копіювання зрілих методів крадіжки монет і відмивання грошей у темній мережі.

FraudGPT:багатофункціональний інструмент для мережевих шахрайств

FraudGPT самопроголошується вдосконаленою версією WormGPT, яка переважно продається в темній мережі та на форумах хакерів. Його зловживання в сфері шифрування включають:

  • Генерувати реалістичні фальшиві шифрування проєктів та маркетингові матеріали.
  • Масове створення фальшивих сторінок-рибалок, що імітують відомі біржі.
  • Масове виготовлення фальшивих коментарів, просування шахрайських токенів або дискредитація конкурентних проектів.
  • Імітувати людську розмову, спонукати користувачів розкривати чутливу інформацію.

GhostGPT:штучний інтелект помічник без моральних обмежень

GhostGPT є чітко позиціонованим AI-чат-роботом без моральних обмежень. У сфері шифрування його можна використовувати для:

  • Генерація високоякісних фішингових електронних листів, що маскуються під фальшиві повідомлення від основних бірж.
  • Швидке генерування коду смарт-контракту з прихованими задніми дверима.
  • Створення зловмисного програмного забезпечення з можливістю деформації для крадіжки інформації з гаманців.
  • У поєднанні з іншими AI-інструментами, створення підробленого голосу представника проекту для здійснення телефонного шахрайства.

Venice.ai: потенційні ризики без цензурного доступу

Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншими обмеженнями. Хоча його метою є забезпечення відкритого AI-досвіду для користувачів, його також можуть зловживати для генерування шкідливого контенту. Потенційні ризики включають:

  • Використання моделей з меншими обмеженнями для обходу цензури, створення шаблонів для фішингу або ідей атак.
  • Знизити поріг для зловмисних підказок.
  • Прискорення ітерації та оптимізації тактики атак.

Стратегії реагування

Перед обличчям нових загроз, які виникають через необмежені LLM, індустрії шифрування потрібно вжити комплексних заходів:

  1. Збільшити інвестиції в технології виявлення, розробити інструменти, які можуть розпізнавати та перехоплювати шкідливий контент, згенерований ШІ.
  2. Сприяти розвитку можливостей моделі для запобігання зломам, досліджуючи механізми водяних знаків і відстеження.
  3. Створити ефективні етичні норми та механізми регулювання, щоб з початку обмежити розробку та зловживання зловмисними моделями.
  4. Посилити освіту користувачів, підвищити здатність розпізнавати контент, згенерований AI.
  5. Сприяти співпраці в галузі, ділитися інформацією про загрози та найкращими практиками.

Пандора: Як безмежні великі моделі загрожують безпеці шифрування в індустрії?

Тільки спільні зусилля всіх сторін безпечної екосистеми можуть ефективно протистояти цьому новому безпековому виклику та захистити здоровий розвиток шифрування індустрії.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
LiquidityNinjavip
· 6год тому
Також слід звернути увагу на управління ризиками.
Переглянути оригіналвідповісти на0
SelfCustodyBrovip
· 6год тому
Обережно, будьте пильні до шахрайства з AI
Переглянути оригіналвідповісти на0
BearMarketGardenervip
· 6год тому
Багато лиха в криптосвіті
Переглянути оригіналвідповісти на0
TxFailedvip
· 6год тому
Загроза від штучного інтелекту занадто страшна
Переглянути оригіналвідповісти на0
AltcoinHuntervip
· 6год тому
невдахи ножа треба точити
Переглянути оригіналвідповісти на0
ClassicDumpstervip
· 6год тому
Обман для дурнів гравців на домашньому полі а
Переглянути оригіналвідповісти на0
ColdWalletGuardianvip
· 6год тому
Серйозна загроза безпеці користувачів
Переглянути оригіналвідповісти на0
  • Закріпити