Коробка Пандори: Як необмежені великі моделі загрожують безпеці Крипто

Середній6/10/2025, 1:50:06 AM
З поширенням відкритих великих моделей, "неконтрольовані AI інструменти" такі як WormGPT і FraudGPT зловживаються для створення фішингових електронних листів, написання шкідливих контрактів і маніпуляції користувацькими спільнотами, що становить серйозну загрозу безпеці криптоіндустрії. У цій статті детально описуються принципи, використання та контрзаходи цих моделей, що б'є на сполох для практиків Web3.

Від серії GPT від OpenAI до Gemini від Google та різних моделей з відкритим кодом, розвинений штучний інтелект глибоко змінює нашу роботу та спосіб життя. Однак, поряд з швидкими технологічними досягненнями, поступово виникає тривожна темна сторона - зростання необмежених або зловмисних великих мовних моделей.

Так звані необмежені LLM відносяться до мовних моделей, які спеціально розроблені, модифіковані або «зламані», щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай інвестують значні ресурси, щоб запобігти використанню своїх моделей для генерації мови ненависті, неправдивої інформації, зловмисного коду або надання інструкцій для незаконної діяльності. Однак у останні роки деякі особи або організації почали шукати або розробляти необмежені моделі з мотивів, таких як кіберзлочинність. У світлі цього, ця стаття розгляне типові інструменти необмежених LLM, представить їхнє зловживання в криптоіндустрії та обговорить пов'язані проблеми безпеки та відповіді.

Яким чином необмежені LLM можуть бути зловмисними?

Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів і планування шахрайств, тепер можуть бути легко виконані звичайними людьми без будь-якого досвіду програмування за допомогою необмежених LLM. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім доопрацювати їх на наборах даних, що містять шкідливий контент, упереджені висловлювання або незаконні інструкції для створення налаштованих інструментів атаки.

Ця модель призвела до множинних ризиків: зловмисники можуть «чарівним чином модифікувати» моделі на основі специфічних цілей для генерування більш обманного контенту, обходячи перевірку контенту та безпекові обмеження звичайних LLM; модель також може бути використана для швидкого генерування варіантів коду для фішингових сайтів або налаштування шахрайських текстів для різних соціальних медіа платформ; тим часом доступність та модифікаційність відкритих моделей продовжує сприяти формуванню та поширенню підпільної екосистеми ШІ, що створює сприятливе середовище для незаконних транзакцій та розробки. Нижче наведено короткий вступ до таких не обмежених LLM:

WormGPT: Чорна версія GPT

WormGPT – це шкідливий LLM, який відкрито продається на підпільних форумах, розробники якого прямо стверджують, що він не має етичних обмежень, роблячи його чорною версією моделі GPT. Він базується на відкритих моделях, таких як GPT-J 6B, і навчався на великій кількості даних, пов'язаних з шкідливим ПЗ. Користувачі повинні сплатити мінімум 189 доларів, щоб отримати місячний доступ. Найвідоміше використання WormGPT полягає в створенні надзвичайно реалістичних і переконливих електронних листів для атак на бізнес (BEC) та фішингів. Його типові зловживання в крипто-просторі включають:

  • Генерувати фішингові електронні листи/повідомлення: Імітувати криптовалютні біржі, гаманці або відомі проекти, щоб надсилати запити на "перевірку облікового запису" користувачам, спонукаючи їх натискати на шкідливі посилання або розкривати приватні ключі/фрази для відновлення;
  • Написання шкідливого коду: Допомога менш технічно підкованим атакуючим у написанні шкідливого коду, який краде файли гаманців, моніторить буфер обміну, реєструє натискання клавіш тощо.
  • Використовуйте автоматичні шахрайства: Автоматично відповідайте на запити потенційних жертв, направляючи їх до участі у фальшивих аірдропах або інвестиційних проектах.


DarkBERT: Двосічний меч для контенту темного вебу

DarkBERT – це мовна модель, розроблена в співпраці між дослідниками Корейського передового інституту науки і технологій (KAIST) та компанією S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки та витік інформації) з наміром допомогти дослідникам у сфері кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та збирати інформацію про загрози.

Хоча DarkBERT був розроблений з хорошими намірами, чутливий контент, який він містить щодо темної мережі, включаючи дані, методи атак та незаконні торгові стратегії, може мати серйозні наслідки, якщо злочинні елементи отримають його або використовуватимуть подібні технології для навчання необмежених великих моделей. Його потенційне зловживання в сценаріях шифрування включає:

  • Впровадження точних шахрайств: збір інформації про користувачів шифрування та команди проектів для шахрайства шляхом соціальної інженерії.
  • Імітація кримінального способу дій: Реплікація перевірених тактик крадіжки монет та відмивання грошей у темній мережі.

FraudGPT: Швейцарський ніж багатофункціональний онлайн-шахрайства

FraudGPT стверджує, що є вдосконаленою версією WormGPT, пропонуючи більш комплексні функції, які в основному продаються в темному вебі та хакерських форумах, з щомісячними платежами від 200 до 1 700 доларів. Його типові зловживання в сценарії шифрування включають:

  • Підроблені проекти шифрування: Генеруйте фальшиві білі книги, офіційні веб-сайти, дорожні карти та маркетингові тексти для реалізації шахрайських ICO/IDO.
  • Пакетна генерація фішингових сторінок: Швидко створюйте імітаційні сторінки входу для відомих бірж криптовалюти або інтерфейсів підключення гаманців.
  • Дії ботів у соціальних мережах: масове виробництво фейкових коментарів і пропаганди, підвищення популярності шахрайських токенів або дискредитація конкурентних проєктів.
  • Соціальна інженерія: цей чат-бот може імітувати людські розмови, встановлювати довіру з нічого не підозрюючими користувачами та спонукати їх ненавмисно розкривати чутливу інформацію або виконувати шкідливі дії.

GhostGPT: Штучний інтелект, що не підлягає моральним обмеженням

GhostGPT – це AI-чат-бот, який явно позиціонується як такий, що не має етичних обмежень, з типовими зловживаннями в сценарії шифрування, включаючи:

  • Розширені фішингові атаки: Генеруйте надзвичайно реалістичні фішингові електронні листи, які імітують основні біржі для видачі фальшивих запитів на перевірку KYC, сповіщень про безпеку або повідомлень про замороження рахунку.
  • Генерація шкідливого коду для смарт-контрактів: без будь-якого програмного фону зловмисники можуть швидко створювати смарт-контракти, що містять приховані задні двері або шахрайську логіку, використовуючи GhostGPT, для схем Rug Pull або атак на протоколи DeFi.
  • Поліморфний криптовалютний крадій: Генерує шкідливе програмне забезпечення з безперервними можливостями морфінгу для крадіжки файлів гаманців, приватних ключів та мнемонічних фраз. Його поліморфні характеристики ускладнюють виявлення традиційним програмним забезпеченням безпеки на основі підписів.
  • Атаки соціальної інженерії: Поєднуючи сценарії, згенеровані штучним інтелектом, зловмисники можуть розгортати ботів на платформах, таких як Discord і Telegram, щоб заманити користувачів до участі у фальшивому карбуванні NFT, аірдропах або інвестиційних проектах.
  • Скандали з дипфейками: У поєднанні з іншими інструментами ШІ, GhostGPT може бути використаний для генерації голосів фальшивих засновників крипто-проектів, інвесторів чи керівників бірж, реалізуючи телефонні шахрайства або атаки на бізнес-електронну пошту (BEC).

Venice.ai: Потенційні ризики неконтрольованого доступу

Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою перевіркою або більш м’якими обмеженнями. Він позиціонується як відкриті ворота для користувачів, щоб досліджувати можливості різних LLM, пропонуючи передові, точні та немодеровані моделі для справжнього не обмеженого AI-досвіду, але вони також можуть бути використані зловмисниками для створення шкідливого контенту. Ризики, пов’язані з платформою, включають:

  • Обхід цензури для створення шкідливого контенту: Зловмисники можуть використовувати моделі з меншими обмеженнями на платформі для створення шаблонів фішингу, неправдивої пропаганди або ідей атак.
  • Знизьте поріг для інженерії запитів: навіть якщо зловмисники не володіють просунутими навичками "виламування" запитів, вони можуть легко отримувати виходи, які спочатку були обмежені.
  • Прискорена ітерація сценаріїв атак: Зловмисники можуть використовувати цю платформу для швидкого тестування відповідей різних моделей на шкідливі команди, оптимізуючи сценарії шахрайства та методи атак.

Написано в кінці

Поява необмежених LLM позначає нову парадигму атак на кібербезпеку, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й впроваджують нові загрози, які є більш прихованими та оманливими.

У цій безперервній грі в атаці та захисті всі учасники екосистеми безпеки повинні працювати разом, щоб впоратися з майбутніми ризиками: з одного боку, існує потреба збільшити інвестиції в технології виявлення для розробки систем, здатних ідентифікувати та перехоплювати фішинговий контент, створений зловмисними LLM, експлуатуючи вразливості смарт-контрактів та зловмисний код; з іншого боку, також слід вжити заходів для сприяння будівництву можливостей протидії злому моделей і досліджувати механізми водяних знаків і трасування для відстеження джерел зловмисного контенту в критичних сценаріях, таких як фінанси та генерація коду; крім того, необхідно встановити належну етичну основу та регуляторний механізм, щоб в основному обмежити розвиток і зловживання зловмисними моделями.

Заява:

  1. Ця стаття перепублікована з [TechFlow] Авторські права належать оригінальному автору [TechFlow] Якщо є заперечення щодо повторного друку, будь ласка, зв'яжітьсяКоманда Gate LearnКоманда обробить це якомога швидше відповідно до відповідних процедур.
  2. Застереження: Думки та погляди, висловлені в цій статті, є виключно думками автора і не є інвестиційною порадою.
  3. Інші мовні версії статті перекладені командою Gate Learn, якщо не зазначено інше.ГейтЗа таких обставин заборонено копіювати, розповсюджувати або плагіатити перекладені статті.

Коробка Пандори: Як необмежені великі моделі загрожують безпеці Крипто

Середній6/10/2025, 1:50:06 AM
З поширенням відкритих великих моделей, "неконтрольовані AI інструменти" такі як WormGPT і FraudGPT зловживаються для створення фішингових електронних листів, написання шкідливих контрактів і маніпуляції користувацькими спільнотами, що становить серйозну загрозу безпеці криптоіндустрії. У цій статті детально описуються принципи, використання та контрзаходи цих моделей, що б'є на сполох для практиків Web3.

Від серії GPT від OpenAI до Gemini від Google та різних моделей з відкритим кодом, розвинений штучний інтелект глибоко змінює нашу роботу та спосіб життя. Однак, поряд з швидкими технологічними досягненнями, поступово виникає тривожна темна сторона - зростання необмежених або зловмисних великих мовних моделей.

Так звані необмежені LLM відносяться до мовних моделей, які спеціально розроблені, модифіковані або «зламані», щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай інвестують значні ресурси, щоб запобігти використанню своїх моделей для генерації мови ненависті, неправдивої інформації, зловмисного коду або надання інструкцій для незаконної діяльності. Однак у останні роки деякі особи або організації почали шукати або розробляти необмежені моделі з мотивів, таких як кіберзлочинність. У світлі цього, ця стаття розгляне типові інструменти необмежених LLM, представить їхнє зловживання в криптоіндустрії та обговорить пов'язані проблеми безпеки та відповіді.

Яким чином необмежені LLM можуть бути зловмисними?

Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів і планування шахрайств, тепер можуть бути легко виконані звичайними людьми без будь-якого досвіду програмування за допомогою необмежених LLM. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім доопрацювати їх на наборах даних, що містять шкідливий контент, упереджені висловлювання або незаконні інструкції для створення налаштованих інструментів атаки.

Ця модель призвела до множинних ризиків: зловмисники можуть «чарівним чином модифікувати» моделі на основі специфічних цілей для генерування більш обманного контенту, обходячи перевірку контенту та безпекові обмеження звичайних LLM; модель також може бути використана для швидкого генерування варіантів коду для фішингових сайтів або налаштування шахрайських текстів для різних соціальних медіа платформ; тим часом доступність та модифікаційність відкритих моделей продовжує сприяти формуванню та поширенню підпільної екосистеми ШІ, що створює сприятливе середовище для незаконних транзакцій та розробки. Нижче наведено короткий вступ до таких не обмежених LLM:

WormGPT: Чорна версія GPT

WormGPT – це шкідливий LLM, який відкрито продається на підпільних форумах, розробники якого прямо стверджують, що він не має етичних обмежень, роблячи його чорною версією моделі GPT. Він базується на відкритих моделях, таких як GPT-J 6B, і навчався на великій кількості даних, пов'язаних з шкідливим ПЗ. Користувачі повинні сплатити мінімум 189 доларів, щоб отримати місячний доступ. Найвідоміше використання WormGPT полягає в створенні надзвичайно реалістичних і переконливих електронних листів для атак на бізнес (BEC) та фішингів. Його типові зловживання в крипто-просторі включають:

  • Генерувати фішингові електронні листи/повідомлення: Імітувати криптовалютні біржі, гаманці або відомі проекти, щоб надсилати запити на "перевірку облікового запису" користувачам, спонукаючи їх натискати на шкідливі посилання або розкривати приватні ключі/фрази для відновлення;
  • Написання шкідливого коду: Допомога менш технічно підкованим атакуючим у написанні шкідливого коду, який краде файли гаманців, моніторить буфер обміну, реєструє натискання клавіш тощо.
  • Використовуйте автоматичні шахрайства: Автоматично відповідайте на запити потенційних жертв, направляючи їх до участі у фальшивих аірдропах або інвестиційних проектах.


DarkBERT: Двосічний меч для контенту темного вебу

DarkBERT – це мовна модель, розроблена в співпраці між дослідниками Корейського передового інституту науки і технологій (KAIST) та компанією S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки та витік інформації) з наміром допомогти дослідникам у сфері кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та збирати інформацію про загрози.

Хоча DarkBERT був розроблений з хорошими намірами, чутливий контент, який він містить щодо темної мережі, включаючи дані, методи атак та незаконні торгові стратегії, може мати серйозні наслідки, якщо злочинні елементи отримають його або використовуватимуть подібні технології для навчання необмежених великих моделей. Його потенційне зловживання в сценаріях шифрування включає:

  • Впровадження точних шахрайств: збір інформації про користувачів шифрування та команди проектів для шахрайства шляхом соціальної інженерії.
  • Імітація кримінального способу дій: Реплікація перевірених тактик крадіжки монет та відмивання грошей у темній мережі.

FraudGPT: Швейцарський ніж багатофункціональний онлайн-шахрайства

FraudGPT стверджує, що є вдосконаленою версією WormGPT, пропонуючи більш комплексні функції, які в основному продаються в темному вебі та хакерських форумах, з щомісячними платежами від 200 до 1 700 доларів. Його типові зловживання в сценарії шифрування включають:

  • Підроблені проекти шифрування: Генеруйте фальшиві білі книги, офіційні веб-сайти, дорожні карти та маркетингові тексти для реалізації шахрайських ICO/IDO.
  • Пакетна генерація фішингових сторінок: Швидко створюйте імітаційні сторінки входу для відомих бірж криптовалюти або інтерфейсів підключення гаманців.
  • Дії ботів у соціальних мережах: масове виробництво фейкових коментарів і пропаганди, підвищення популярності шахрайських токенів або дискредитація конкурентних проєктів.
  • Соціальна інженерія: цей чат-бот може імітувати людські розмови, встановлювати довіру з нічого не підозрюючими користувачами та спонукати їх ненавмисно розкривати чутливу інформацію або виконувати шкідливі дії.

GhostGPT: Штучний інтелект, що не підлягає моральним обмеженням

GhostGPT – це AI-чат-бот, який явно позиціонується як такий, що не має етичних обмежень, з типовими зловживаннями в сценарії шифрування, включаючи:

  • Розширені фішингові атаки: Генеруйте надзвичайно реалістичні фішингові електронні листи, які імітують основні біржі для видачі фальшивих запитів на перевірку KYC, сповіщень про безпеку або повідомлень про замороження рахунку.
  • Генерація шкідливого коду для смарт-контрактів: без будь-якого програмного фону зловмисники можуть швидко створювати смарт-контракти, що містять приховані задні двері або шахрайську логіку, використовуючи GhostGPT, для схем Rug Pull або атак на протоколи DeFi.
  • Поліморфний криптовалютний крадій: Генерує шкідливе програмне забезпечення з безперервними можливостями морфінгу для крадіжки файлів гаманців, приватних ключів та мнемонічних фраз. Його поліморфні характеристики ускладнюють виявлення традиційним програмним забезпеченням безпеки на основі підписів.
  • Атаки соціальної інженерії: Поєднуючи сценарії, згенеровані штучним інтелектом, зловмисники можуть розгортати ботів на платформах, таких як Discord і Telegram, щоб заманити користувачів до участі у фальшивому карбуванні NFT, аірдропах або інвестиційних проектах.
  • Скандали з дипфейками: У поєднанні з іншими інструментами ШІ, GhostGPT може бути використаний для генерації голосів фальшивих засновників крипто-проектів, інвесторів чи керівників бірж, реалізуючи телефонні шахрайства або атаки на бізнес-електронну пошту (BEC).

Venice.ai: Потенційні ризики неконтрольованого доступу

Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою перевіркою або більш м’якими обмеженнями. Він позиціонується як відкриті ворота для користувачів, щоб досліджувати можливості різних LLM, пропонуючи передові, точні та немодеровані моделі для справжнього не обмеженого AI-досвіду, але вони також можуть бути використані зловмисниками для створення шкідливого контенту. Ризики, пов’язані з платформою, включають:

  • Обхід цензури для створення шкідливого контенту: Зловмисники можуть використовувати моделі з меншими обмеженнями на платформі для створення шаблонів фішингу, неправдивої пропаганди або ідей атак.
  • Знизьте поріг для інженерії запитів: навіть якщо зловмисники не володіють просунутими навичками "виламування" запитів, вони можуть легко отримувати виходи, які спочатку були обмежені.
  • Прискорена ітерація сценаріїв атак: Зловмисники можуть використовувати цю платформу для швидкого тестування відповідей різних моделей на шкідливі команди, оптимізуючи сценарії шахрайства та методи атак.

Написано в кінці

Поява необмежених LLM позначає нову парадигму атак на кібербезпеку, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й впроваджують нові загрози, які є більш прихованими та оманливими.

У цій безперервній грі в атаці та захисті всі учасники екосистеми безпеки повинні працювати разом, щоб впоратися з майбутніми ризиками: з одного боку, існує потреба збільшити інвестиції в технології виявлення для розробки систем, здатних ідентифікувати та перехоплювати фішинговий контент, створений зловмисними LLM, експлуатуючи вразливості смарт-контрактів та зловмисний код; з іншого боку, також слід вжити заходів для сприяння будівництву можливостей протидії злому моделей і досліджувати механізми водяних знаків і трасування для відстеження джерел зловмисного контенту в критичних сценаріях, таких як фінанси та генерація коду; крім того, необхідно встановити належну етичну основу та регуляторний механізм, щоб в основному обмежити розвиток і зловживання зловмисними моделями.

Заява:

  1. Ця стаття перепублікована з [TechFlow] Авторські права належать оригінальному автору [TechFlow] Якщо є заперечення щодо повторного друку, будь ласка, зв'яжітьсяКоманда Gate LearnКоманда обробить це якомога швидше відповідно до відповідних процедур.
  2. Застереження: Думки та погляди, висловлені в цій статті, є виключно думками автора і не є інвестиційною порадою.
  3. Інші мовні версії статті перекладені командою Gate Learn, якщо не зазначено інше.ГейтЗа таких обставин заборонено копіювати, розповсюджувати або плагіатити перекладені статті.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!