Детекция rug pull с помощью ИИ — разбор трёх реальных кейсов
Мы взяли три проекта, которые рынок уже подтвердил как rug pull за последние 6 месяцев, «вернулись на неделю назад до краха» и скормили ChatGPT, Claude и Perplexity ровно те данные, которые были публично доступны в тот момент. Без читерства. Результат — два пойманы, один пропущен. И именно тот, что пропущен, дал нам больше уроков, чем оба пойманных вместе.
1. Как мы строили этот разбор #
Критерии отбора: rug pull или exit scam за последние 6 месяцев (с 2025-11 по 2026-04), публично подтверждённые на Etherscan, Solscan, DEXTools либо несколькими СМИ. Из 11 кандидатов мы выбрали три репрезентативных:
- Проект A: DeFi-протокол, сеть Solana, TVL на момент rug — около 4,1 млн долларов
- Проект B: meme-токен с GameFi-обвязкой, сеть Base, капитализация на момент rug — около 9,7 млн долларов
- Проект C: инфраструктурный проект, основной Ethereum, медленный увод денег более 6 недель, суммарно — около 1,2 млн долларов
Метод: всю публичную информацию за «7 дней до rug» мы упаковали в материал для ИИ. В пакет входило:
| Тип материала | Источник | Что именно отдавали ИИ |
|---|---|---|
| Данные о контракте | Etherscan / Solscan | Верифицированный исходник, распределение холдеров, история адреса деплоера |
| Команда | Сайт, LinkedIn, Twitter | Скриншоты страницы команды, твиты ключевых фронтменов за последние 30 дней |
| Документация | White paper, GitBook | PDF white paper (загружали в Claude) |
| Ончейн-активность | Dune Analytics, Nansen | TVL и количество холдеров за 30 дней, концентрация топ-10 кошельков |
| Соцсети | Twitter, Discord, Telegram | Сводка ключевых слов из обсуждений, а не сырая переписка |
Каждый из трёх ИИ прогонялся по 3 раза — итого 9 ответов, по которым мы выводили консенсус. Дальше — ручная сверка с тем, что произошло на самом деле.
2. Кейс A: пойман — «пустой адрес команды» #
Проект A — DeFi-протокол в Solana, TVL на момент краха около 4,1 млн долларов. Claude в 8 из 9 прогонов поставил «высокий риск». Основания свелись к трём пунктам.
Первое — история адреса деплоера. Мы дали Claude адрес, с которого был задеплоен контракт, и попросили посмотреть, что этот адрес делал за последние 6 месяцев. Получив данные Solscan, Claude сразу указал: с этого адреса было задеплоено ещё 4 контракта, два из них уже заброшены, ликвидность с них выведена владельцем. ИИ силён ровно в этом — в сопоставлении похожих паттернов.
Второе — обратная проверка LinkedIn команды. На сайте указано 5 человек, у каждого ссылка на LinkedIn. Perplexity в онлайн-режиме вытянул 5 публичных профилей и обнаружил, что у трёх из них аномальный паттерн: меньше 30 контактов, аккаунты созданы менее 4 месяцев назад, рекомендации сплошь на английском и явно скопированы. Вывод Perplexity: «Страница команды с высокой вероятностью — синтетические личности». Человеку на такую кросс-проверку нужно 1–2 часа; ИИ выдал ответ за 20 минут.
Третье — расхождение кривых TVL и числа холдеров. По данным Dune, TVL за 30 дней вырос на 180 %, а количество кошельков-холдеров — всего на 24 %. ChatGPT прямо сказал: «Это значит, что TVL формируют несколько крупных адресов, а не органический приток. С учётом риска rug pull стоит ожидать набега вкладчиков при первом выходе кита».
| ИИ | Вердикт за 9 прогонов | Самый сильный сигнал |
|---|---|---|
| Claude 4.5 Sonnet | высокий риск × 8 / средний × 1 | История деплоера |
| ChatGPT GPT-4o | высокий риск × 7 / средний × 2 | Расхождение TVL и числа холдеров |
| Perplexity Pro | высокий риск × 9 | Синтетические профили в LinkedIn |
Проект A реально сделал rug через 5 дней после нашего временного окна. В этом кейсе ИИ оказался по-настоящему полезен — при наличии данных он за 30 минут параллельно выполняет 5–6 шагов дью-дилидженса, на которые у человека ушёл бы день.
3. Кейс B: пойман — «копипаст контракта и фейковая команда» #
Проект B заявлял себя как «GameFi + meme», сеть Base, капитализация добиралась до 9,7 млн долларов. Здесь ключевой сигнал, который вытащил ИИ, — копипаст контракта.
Мы скормили верифицированный исходник проекта B в ChatGPT Code Interpreter и попросили сравнить его с пятью известными опенсорсными token-контрактами. Результат: 96 % совпадения с исходником проекта-rug 2024 года, изменены только имена переменных и событий. Сами по себе 96 % совпадения ещё не равны rug, но в связке с «деплоер — новый адрес, команда полностью анонимна, Twitter-аккаунту 3 недели» ИИ поставил оценку 9 из 10.
Ещё одно изящное попадание — white paper. Мы скормили 38-страничный документ Claude (контекст 200K — за один проход) и получили четыре конкретных «прокола»:
- На карте Q2 заявлено «партнёрство с X», но X в своём Twitter ни разу не подтверждал такое сотрудничество
- «Аудит проведён CertiK» — в публичной базе CertiK соответствующей записи нет
- В разделе токеномики «команда + советники + private sale» в сумме дают 67 % эмиссии, а на круговой диаграмме подписано 35 %
- Сооснователь упомянут как «бывший инженер Coinbase», но в публичных коммитах Coinbase на GitHub такого сотрудника нет
Второй пункт — самый показательный. «Заявлен аудит, но в базе аудитора записи нет» — это паттерн, который встречается в rug-проектах поразительно часто. Заметив его, ИИ сразу поднял риск до 9 из 10. Сверка «заявлено vs публичный реестр» — конёк ИИ: ему всё равно на маркетинговую риторику, он просто сверяет факты.
4. Кейс C: пропущен — «медленный rug» #
А вот это — самый ценный раздел статьи. Проект C, инфраструктурный, основной Ethereum, увод денег занял больше 6 недель, суммарно ушло около 1,2 млн долларов. Все 9 прогонов ИИ дали «низкий» или «средний» риск.
Почему ИИ не разглядел? При разборе мы насчитали четыре причины.
Причина 1: контракт реально проходил аудит. Проект C заказал реальный аудит у компании второго эшелона, отчёт лежит на GitHub, в базе CertiK тоже есть. ИИ, увидев «аудит есть, отчёт верифицируется», поставил риску «на уровне контракта» низкую оценку. Только вот «контракт чист» не означает «проект не сделает rug» — команда позднее через мультисиг неспешно выводила treasury, и на уровне контракта этого не увидеть.
Причина 2: команда вся под реальными именами, LinkedIn настоящий. У четверых членов команды реальные имена, LinkedIn заведены до 2016 года, 500+ контактов у каждого, в предыдущих работодателях — Coinbase и Consensys. ИИ записал «команда верифицируема» в плюс. Только реальная команда тоже умеет делать rug — здесь они зашли через формулировку «стратегический разворот проекта» и тихо распиливали кассу 6 недель.
Причина 3: сигналы лежали в форуме управления, а не в ончейне. Постфактум мы залезли в Discord-канал governance и обнаружили: за 4 недели до rug команда начала «намекать» в RFC на смену вектора. Это текстовые сигналы, размазанные по 200+ сообщениям. В сводке для ИИ мы дали только ключевые слова — без сырого текста. Если бы дали исходники, ИИ, скорее всего, заметил бы аномально выросшую плотность дискуссий и затягивание ответов команды — это сигналы второго порядка.
Причина 4: у медленного rug нет точки разрыва. ИИ — и почти все детекторы rug — опираются на «аномальный скачок»: резкое падение TVL, крупный перевод, мгновенный вывод ликвидности. Медленный rug каждый день уводит 10–20 тысяч долларов, за 6 недель набирается 1,2 млн. Любой отдельно взятый день выглядит нормально. И именно туда эволюционирует жанр — от разового резкого rug к варке лягушки в тёплой воде.
| Причина провала | Какой сигнал «убит» | Можно ли поправить в следующий раз |
|---|---|---|
| Контракт реально аудирован | Сигналы уровня контракта | Сложно — структурная проблема |
| Реальная команда | Сигналы уровня личности | Сложно — структурная проблема |
| В форум управления не скармливали сырой текст | Сигналы второго порядка | Можно — добавить Discord и форум как есть |
| Медленный rug без скачков | Аномалия не срабатывает | Нужны инструменты анализа временных рядов |
Вывод по проекту C: ИИ хорошо ловит «классический rug» (пустой адрес команды, копипаст контракта, фейковые личности), но почти бессилен против «медленного rug». Это и есть тот опыт, ради которого мы потом перестроили процесс дью-дилидженса.
5. Пять типов сигналов, где ИИ реально силён #
Если соединить успехи и провалы по трём кейсам, у ИИ в детекции rug есть чёткая граница способностей. Вот пять зон, где он реально помогает:
- История связей адреса: судьба контрактов, которые деплоер выпускал за последние 6–12 месяцев. Здесь у ИИ максимальный отрыв по скорости от человека — у нас час, у него несколько минут.
- Сходство исходного кода контракта: особенно с известными контрактами, на которых уже был rug. С этим хорошо справляются Code Interpreter и Claude.
- Проверка синтетических личностей: кросс-проверка LinkedIn, GitHub, прошлых высказываний. Быстрее всего — Perplexity в онлайн-режиме.
- Сверка white paper с реальностью: заявленные аудиторы, инвесторы и партнёры — есть ли они в публичных реестрах. Claude с длинным контекстом — лучший вариант.
- Расхождение ончейн-метрик: согласованы ли между собой TVL, число холдеров и объём. Связка Dune + ChatGPT либо Claude.
А вот «учуять варку лягушки» ИИ практически не может. Медленный rug, манипуляция governance, длительное размытие стоимости — здесь работает только человек, который ведёт проект годами.
6. Шаблон промпта, который мы используем #
Этот шаблон сейчас прогоняется у нас на каждом новом проекте. За 30 минут он отсеивает подавляющую часть классических rug:
Ты — строгий аналитик по дью-дилидженсу криптопроектов. На основе материала ниже дай мне
оценку риска rug pull (по шкале 0–10).
Материал:
[1] Адрес деплоера контракта: {ADDRESS}
[2] Верифицированный исходник контракта: {SOURCE_CODE}
[3] Список ссылок на LinkedIn команды: {LINKS}
[4] White paper в PDF: {ATTACHED}
[5] Ончейн-метрики за 30 дней: TVL={X}, holders={Y}, концентрация топ-10 = {Z} %
[6] Заявленный аудитор: {AUDITOR}
Требования:
1. По каждому «красному флагу» дай «доказательство + оценка (низкая / средняя / высокая)»,
без общих слов.
2. Не предсказывай, «случится ли rug» — описывай текущую структуру риска.
3. Если данных не хватает для оценки пункта — пиши «недостаточно информации».
4. В конце поставь оценку 0–10 и приведи 3 самых сильных аргумента «почему не стоит
инвестировать». Если сильных аргументов нет — пиши «явных красных флагов не вижу».
5. Перечисли 3 направления, в которых ты сам не видишь (твои слепые зоны).
Пятый пункт — «перечисли свои слепые зоны» — мы добавили позже. Заставлять ИИ признавать границы знания неожиданно повышает доверие к выводу. Если он пишет «не вижу обсуждений в приватном Discord», мы понимаем, где нужно подключить человека.
ИИ не остановит все rug. Но он отсеет процентов 70 дешёвых rug, и человеческий мозг можно оставить на те проекты, которые «выглядят серьёзно» — там, где и нужна глубокая, длинная работа.
Открыть Binance спот-анализ → Открыть библиотеку промптов →
— AI Trade Lab, 2026-04-25
rel="sponsored"): по нашим ссылкам мы можем получить комиссию — это не создаёт для вас никаких дополнительных расходов.
Полное раскрытие →