Від серії GPT від OpenAI до Gemini від Google та різних моделей з відкритим кодом, розвинений штучний інтелект глибоко змінює нашу роботу та спосіб життя. Однак, поряд з швидкими технологічними досягненнями, поступово виникає тривожна темна сторона - зростання необмежених або зловмисних великих мовних моделей.
Так звані необмежені LLM відносяться до мовних моделей, які спеціально розроблені, модифіковані або «зламані», щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай інвестують значні ресурси, щоб запобігти використанню своїх моделей для генерації мови ненависті, неправдивої інформації, зловмисного коду або надання інструкцій для незаконної діяльності. Однак у останні роки деякі особи або організації почали шукати або розробляти необмежені моделі з мотивів, таких як кіберзлочинність. У світлі цього, ця стаття розгляне типові інструменти необмежених LLM, представить їхнє зловживання в криптоіндустрії та обговорить пов'язані проблеми безпеки та відповіді.
Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів і планування шахрайств, тепер можуть бути легко виконані звичайними людьми без будь-якого досвіду програмування за допомогою необмежених LLM. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім доопрацювати їх на наборах даних, що містять шкідливий контент, упереджені висловлювання або незаконні інструкції для створення налаштованих інструментів атаки.
Ця модель призвела до множинних ризиків: зловмисники можуть «чарівним чином модифікувати» моделі на основі специфічних цілей для генерування більш обманного контенту, обходячи перевірку контенту та безпекові обмеження звичайних LLM; модель також може бути використана для швидкого генерування варіантів коду для фішингових сайтів або налаштування шахрайських текстів для різних соціальних медіа платформ; тим часом доступність та модифікаційність відкритих моделей продовжує сприяти формуванню та поширенню підпільної екосистеми ШІ, що створює сприятливе середовище для незаконних транзакцій та розробки. Нижче наведено короткий вступ до таких не обмежених LLM:
WormGPT – це шкідливий LLM, який відкрито продається на підпільних форумах, розробники якого прямо стверджують, що він не має етичних обмежень, роблячи його чорною версією моделі GPT. Він базується на відкритих моделях, таких як GPT-J 6B, і навчався на великій кількості даних, пов'язаних з шкідливим ПЗ. Користувачі повинні сплатити мінімум 189 доларів, щоб отримати місячний доступ. Найвідоміше використання WormGPT полягає в створенні надзвичайно реалістичних і переконливих електронних листів для атак на бізнес (BEC) та фішингів. Його типові зловживання в крипто-просторі включають:
DarkBERT – це мовна модель, розроблена в співпраці між дослідниками Корейського передового інституту науки і технологій (KAIST) та компанією S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки та витік інформації) з наміром допомогти дослідникам у сфері кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та збирати інформацію про загрози.
Хоча DarkBERT був розроблений з хорошими намірами, чутливий контент, який він містить щодо темної мережі, включаючи дані, методи атак та незаконні торгові стратегії, може мати серйозні наслідки, якщо злочинні елементи отримають його або використовуватимуть подібні технології для навчання необмежених великих моделей. Його потенційне зловживання в сценаріях шифрування включає:
FraudGPT: Швейцарський ніж багатофункціональний онлайн-шахрайства
FraudGPT стверджує, що є вдосконаленою версією WormGPT, пропонуючи більш комплексні функції, які в основному продаються в темному вебі та хакерських форумах, з щомісячними платежами від 200 до 1 700 доларів. Його типові зловживання в сценарії шифрування включають:
GhostGPT – це AI-чат-бот, який явно позиціонується як такий, що не має етичних обмежень, з типовими зловживаннями в сценарії шифрування, включаючи:
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою перевіркою або більш м’якими обмеженнями. Він позиціонується як відкриті ворота для користувачів, щоб досліджувати можливості різних LLM, пропонуючи передові, точні та немодеровані моделі для справжнього не обмеженого AI-досвіду, але вони також можуть бути використані зловмисниками для створення шкідливого контенту. Ризики, пов’язані з платформою, включають:
Поява необмежених LLM позначає нову парадигму атак на кібербезпеку, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й впроваджують нові загрози, які є більш прихованими та оманливими.
У цій безперервній грі в атаці та захисті всі учасники екосистеми безпеки повинні працювати разом, щоб впоратися з майбутніми ризиками: з одного боку, існує потреба збільшити інвестиції в технології виявлення для розробки систем, здатних ідентифікувати та перехоплювати фішинговий контент, створений зловмисними LLM, експлуатуючи вразливості смарт-контрактів та зловмисний код; з іншого боку, також слід вжити заходів для сприяння будівництву можливостей протидії злому моделей і досліджувати механізми водяних знаків і трасування для відстеження джерел зловмисного контенту в критичних сценаріях, таких як фінанси та генерація коду; крім того, необхідно встановити належну етичну основу та регуляторний механізм, щоб в основному обмежити розвиток і зловживання зловмисними моделями.
Від серії GPT від OpenAI до Gemini від Google та різних моделей з відкритим кодом, розвинений штучний інтелект глибоко змінює нашу роботу та спосіб життя. Однак, поряд з швидкими технологічними досягненнями, поступово виникає тривожна темна сторона - зростання необмежених або зловмисних великих мовних моделей.
Так звані необмежені LLM відносяться до мовних моделей, які спеціально розроблені, модифіковані або «зламані», щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Розробники основних LLM зазвичай інвестують значні ресурси, щоб запобігти використанню своїх моделей для генерації мови ненависті, неправдивої інформації, зловмисного коду або надання інструкцій для незаконної діяльності. Однак у останні роки деякі особи або організації почали шукати або розробляти необмежені моделі з мотивів, таких як кіберзлочинність. У світлі цього, ця стаття розгляне типові інструменти необмежених LLM, представить їхнє зловживання в криптоіндустрії та обговорить пов'язані проблеми безпеки та відповіді.
Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів і планування шахрайств, тепер можуть бути легко виконані звичайними людьми без будь-якого досвіду програмування за допомогою необмежених LLM. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім доопрацювати їх на наборах даних, що містять шкідливий контент, упереджені висловлювання або незаконні інструкції для створення налаштованих інструментів атаки.
Ця модель призвела до множинних ризиків: зловмисники можуть «чарівним чином модифікувати» моделі на основі специфічних цілей для генерування більш обманного контенту, обходячи перевірку контенту та безпекові обмеження звичайних LLM; модель також може бути використана для швидкого генерування варіантів коду для фішингових сайтів або налаштування шахрайських текстів для різних соціальних медіа платформ; тим часом доступність та модифікаційність відкритих моделей продовжує сприяти формуванню та поширенню підпільної екосистеми ШІ, що створює сприятливе середовище для незаконних транзакцій та розробки. Нижче наведено короткий вступ до таких не обмежених LLM:
WormGPT – це шкідливий LLM, який відкрито продається на підпільних форумах, розробники якого прямо стверджують, що він не має етичних обмежень, роблячи його чорною версією моделі GPT. Він базується на відкритих моделях, таких як GPT-J 6B, і навчався на великій кількості даних, пов'язаних з шкідливим ПЗ. Користувачі повинні сплатити мінімум 189 доларів, щоб отримати місячний доступ. Найвідоміше використання WormGPT полягає в створенні надзвичайно реалістичних і переконливих електронних листів для атак на бізнес (BEC) та фішингів. Його типові зловживання в крипто-просторі включають:
DarkBERT – це мовна модель, розроблена в співпраці між дослідниками Корейського передового інституту науки і технологій (KAIST) та компанією S2W Inc., спеціально попередньо навчена на даних з темної мережі (таких як форуми, чорні ринки та витік інформації) з наміром допомогти дослідникам у сфері кібербезпеки та правоохоронним органам краще зрозуміти екосистему темної мережі, відстежувати незаконну діяльність, ідентифікувати потенційні загрози та збирати інформацію про загрози.
Хоча DarkBERT був розроблений з хорошими намірами, чутливий контент, який він містить щодо темної мережі, включаючи дані, методи атак та незаконні торгові стратегії, може мати серйозні наслідки, якщо злочинні елементи отримають його або використовуватимуть подібні технології для навчання необмежених великих моделей. Його потенційне зловживання в сценаріях шифрування включає:
FraudGPT: Швейцарський ніж багатофункціональний онлайн-шахрайства
FraudGPT стверджує, що є вдосконаленою версією WormGPT, пропонуючи більш комплексні функції, які в основному продаються в темному вебі та хакерських форумах, з щомісячними платежами від 200 до 1 700 доларів. Його типові зловживання в сценарії шифрування включають:
GhostGPT – це AI-чат-бот, який явно позиціонується як такий, що не має етичних обмежень, з типовими зловживаннями в сценарії шифрування, включаючи:
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою перевіркою або більш м’якими обмеженнями. Він позиціонується як відкриті ворота для користувачів, щоб досліджувати можливості різних LLM, пропонуючи передові, точні та немодеровані моделі для справжнього не обмеженого AI-досвіду, але вони також можуть бути використані зловмисниками для створення шкідливого контенту. Ризики, пов’язані з платформою, включають:
Поява необмежених LLM позначає нову парадигму атак на кібербезпеку, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують поріг для атак, але й впроваджують нові загрози, які є більш прихованими та оманливими.
У цій безперервній грі в атаці та захисті всі учасники екосистеми безпеки повинні працювати разом, щоб впоратися з майбутніми ризиками: з одного боку, існує потреба збільшити інвестиції в технології виявлення для розробки систем, здатних ідентифікувати та перехоплювати фішинговий контент, створений зловмисними LLM, експлуатуючи вразливості смарт-контрактів та зловмисний код; з іншого боку, також слід вжити заходів для сприяння будівництву можливостей протидії злому моделей і досліджувати механізми водяних знаків і трасування для відстеження джерел зловмисного контенту в критичних сценаріях, таких як фінанси та генерація коду; крім того, необхідно встановити належну етичну основу та регуляторний механізм, щоб в основному обмежити розвиток і зловживання зловмисними моделями.