Wykrywanie rug pull z AI — 3 studia przypadku
Wybraliśmy 3 projekty z ostatnich 6 miesięcy, co do których rynek już potwierdził, że były rug pullami. Udawaliśmy, że „cofamy się w czasie o tydzień przed rug” i wkleiliśmy do ChatGPT, Claude i Perplexity tylko te informacje, które wtedy były publicznie dostępne — bez ściągania. Wynik: 2 na 3 złapane przez AI, 1 przepuszczony. I to właśnie ten przepuszczony nauczył nas więcej niż dwa pozostałe razem.
1. Jak przeprowadziliśmy tę analizę #
Kryteria selekcji: rug pulle i exit scamy z ostatnich 6 miesięcy (listopad 2025 — kwiecień 2026), publicznie potwierdzone przez Etherscan, Solscan, DEXTools lub kilka mediów. Przefiltrowaliśmy 11 kandydatów i wybraliśmy 3 reprezentatywne:
- Projekt A: protokół DeFi, sieć Solana, TVL w momencie rug ok. 4,1 mln USD
- Projekt B: meme + koncept GameFi, sieć Base, kapitalizacja w momencie rug ok. 9,7 mln USD
- Projekt C: projekt infrastrukturalny, Ethereum mainnet, powolne wyciąganie funduszy przez ponad 6 tygodni, łącznie ok. 1,2 mln USD
Metoda: skompletowaliśmy paczkę publicznych informacji z „7 dni przed rug” i wrzuciliśmy ją do AI. Co dokładnie:
| Typ materiału | Źródło | Co dostała AI |
|---|---|---|
| Dane kontraktu | Etherscan / Solscan | Zweryfikowany kod źródłowy / rozkład posiadaczy / historia adresu deployera |
| Dane zespołu | Strona projektu / LinkedIn / Twitter | Zrzut strony zespołu / posty głównych twarzy projektu z ostatnich 30 dni |
| Dokumentacja projektu | Whitepaper / GitBook | PDF whitepapera (do Claude) |
| Aktywność on-chain | Dune Analytics / Nansen | TVL, liczba posiadaczy i koncentracja top 10 z ostatnich 30 dni |
| Sentyment społeczny | Twitter / Discord / Telegram | Agregacja słów kluczowych z dyskusji (nie surowe wiadomości) |
Każde AI uruchomione 3 razy, 9 wyników w sumie — z których wyciągnęliśmy konsensus. Na końcu ręcznie porównaliśmy z tym, „co naprawdę się stało w rug”.
2. Przypadek A: złapany „pusty adres zespołu” #
Projekt A to protokół DeFi na Solanie, TVL w momencie rug ok. 4,1 mln USD. Claude w 8 z 9 uruchomień zakwalifikował go jako „wysokie ryzyko”, a uzasadnienie sprowadzało się do trzech punktów:
Po pierwsze: historia adresu deployera. Daliśmy Claude adres, z którego wdrożono kontrakt projektu, i poprosiliśmy, żeby przeanalizował, czy ten sam adres wdrażał wcześniej inne kontrakty w ciągu poprzednich 6 miesięcy. Claude po sprawdzeniu danych z Solscan od razu wskazał: ten adres wdrożył w ciągu ostatnich 6 miesięcy 4 inne kontrakty, z czego 2 zostały porzucone, a właściciel wycofał z nich płynność. To jest dokładnie to, w czym AI naprawdę błyszczy — rozpoznawanie powtarzających się wzorców.
Po drugie: weryfikacja zespołu na LinkedIn. Strona projektu wymieniała 5 osób z zespołu, każda miała link do LinkedIna. Perplexity z dostępem do sieci sprawdził 5 publicznych profili i znalazł, że 3 z nich mają nietypowy wzorzec „data utworzenia + liczba kontaktów + liczba poleceń” (mniej niż 30 kontaktów, profil utworzony mniej niż 4 miesiące temu, polecenia w całości skopiowane po angielsku). Perplexity od razu stwierdził: „strona zespołu z dużym prawdopodobieństwem to sztuczne tożsamości”. Człowiekowi taka weryfikacja krzyżowa zajmuje 1-2 godziny — AI dało odpowiedź w 20 minut.
Po trzecie: rozjazd krzywej TVL z krzywą wzrostu liczby adresów. Dane z Dune pokazały wzrost TVL +180% w 30 dni, ale liczba posiadaczy wzrosła tylko o +24%. ChatGPT od razu wskazał: „Oznacza to, że TVL jest napędzane przez kilka dużych adresów, a nie przez organiczny wzrost. W połączeniu z ryzykiem rug pull należy spodziewać się run-u, gdy duzi gracze zaczną wycofywać środki”.
| AI | Wynik z 9 uruchomień | Najsilniejszy sygnał |
|---|---|---|
| Claude 4.5 Sonnet | Wysokie ryzyko ×8 / Średnie ×1 | Historia deployera |
| ChatGPT GPT-4o | Wysokie ryzyko ×7 / Średnie ×2 | Rozjazd TVL i liczby adresów |
| Perplexity Pro | Wysokie ryzyko ×9 | Sztuczne tożsamości na LinkedIn |
Projekt A faktycznie wykonał rug 5 dni po naszym oknie symulacji. W tym przypadku AI naprawdę się sprawdziło — pod warunkiem, że dasz mu wystarczająco danych, w 30 minut potrafi równolegle wykonać 5-6 czynności due diligence, które normalnie zająłyby człowiekowi cały dzień.
3. Przypadek B: złapany „skopiowany kontrakt + fałszywy zespół” #
Projekt B wystąpił pod hasłem „GameFi + meme”, sieć Base, kapitalizacja w szczycie 9,7 mln USD. Tutaj kluczowym sygnałem, który AI wyłapało, było skopiowanie kontraktu.
Wrzuciliśmy zweryfikowany kod B do ChatGPT Code Interpreter i poprosiliśmy, żeby porównał go z 5 znanymi otwartymi kontraktami tokenowymi. Wynik: kontrakt B ma 96% podobieństwa do kodu pewnego projektu, który był rug pullem w 2024 — jedyne zmiany to nazwy zmiennych i nazwy eventów. 96% podobieństwa samo w sobie nie równa się jeszcze rug pullowi, ale w połączeniu z „nowym adresem deployera + anonimowym zespołem + kontem na Twitterze założonym 3 tygodnie temu” — AI wystawiło ocenę ryzyka 9/10.
Drugi punkt, w którym AI błysnęło: whitepaper. Daliśmy Claude'owi 38-stronicowy whitepaper (kontekst 200K przeczytał jednym tchem) i Claude wskazał 4 „twarde błędy”:
- Mapa drogowa wspomina o „partnerstwie z X” w Q2, ale X nigdy publicznie tego partnerstwa nie potwierdził
- „Audytowane przez CertiK” — ale w publicznej bazie CertiK nie ma żadnego odpowiadającego wpisu
- W sekcji tokenomics „zespół + doradcy + private sale” sumują się do 67% podaży, ale wykres kołowy obok pokazuje 35%
- Współzałożyciel powołuje się na pracę „byłego inżyniera Coinbase”, ale na GitHubie Coinbase nie ma żadnych commitów tej osoby
Punkt drugi jest kluczowy. „Twierdzą, że są audytowani, ale w bazie CertiK nic nie ma” — to wzorzec, który w projektach rug pull powtarza się przerażająco często. AI po znalezieniu tego sygnału natychmiast podbiło ocenę ryzyka do 9/10. Tego typu weryfikacja „twierdzenia vs publiczna baza” to mocna strona AI, bo nie daje się porwać emocjom ani narracji marketingowej projektu.
4. Przypadek C: przepuszczony „powolny rug” #
I to jest najwartościowszy fragment tego artykułu. Projekt C to projekt infrastrukturalny na Ethereum mainnet, jego rug ciągnął się ponad 6 tygodni i łącznie wyciągnięto z niego ok. 1,2 mln USD. Wszystkie 9 uruchomień AI zakwalifikowało go jako „niskie” lub „średnie ryzyko”.
Dlaczego AI tego nie wykryło? Analiza wsteczna pokazuje 4 powody:
Powód 1: kontrakt naprawdę był audytowany. Projekt C zlecił audyt firmie drugiego rzędu, raport leżał na GitHubie i był do znalezienia w bazie CertiK. AI widząc „audyt + raport możliwy do zweryfikowania” niskim ocenia „ryzyko rug na poziomie kontraktu”. Ale fakt, że sam kontrakt jest czysty, nie oznacza, że projekt nie zrobi rug — zespół później powoli przelewał aktywa z portfela treasury przez multisig, a ten ruch jest niewidoczny na poziomie kodu kontraktu.
Powód 2: zespół z prawdziwymi nazwiskami + prawdziwe LinkedIny. Czwórka członków zespołu C używała prawdziwych nazwisk, ich LinkedIny były założone przed 2016, liczba kontaktów po 500+, w doświadczeniu zawodowym Coinbase, Consensys i podobne marki. AI ocenia „weryfikowalność zespołu” pozytywnie. Ale zespół z prawdziwymi nazwiskami też potrafi zrobić rug — wystarczy, że użyje narracji „zmieniamy strategię projektu” i powoli, przez 6 tygodni, wyprowadza środki.
Powód 3: sygnał rug był na forum governance, nie na łańcuchu. Po fakcie przejrzeliśmy historię kanału governance na Discordzie i odkryliśmy, że 4 tygodnie przed rug zespół zaczął w RFC „sugerować zmianę kierunku projektu” — to były sygnały tekstowe, ukryte w 200+ wątkach dyskusji. „Sentyment społeczny”, który podaliśmy AI, był tylko agregacją słów kluczowych, bez oryginalnych dyskusji. Gdybyśmy podali surowe teksty, AI mogłoby rozpoznać sygnał drugiego rzędu: „nietypowy wzrost gęstości dyskusji w governance + opóźnione reakcje zespołu”.
Powód 4: powolny rug nie ma punktu nagłej zmiany. AI (i większość narzędzi do wykrywania rug) opiera się na „anomaliach skokowych” jako sygnale — gwałtowny spadek TVL, duży transfer, nagłe wycofanie płynności. Powolny rug każdego dnia wyprowadza tylko 10-20 tys. USD, łącznie 1,2 mln USD w 6 tygodni. Jakikolwiek pojedynczy dzień wygląda normalnie. To kierunek, w którym ewoluuje rug pull: od jednorazowej agresywnej kradzieży w stronę powolnego gotowania żaby w letniej wodzie.
| Powód porażki | Jakie sygnały tracimy | Czy da się naprawić |
|---|---|---|
| Kontrakt naprawdę audytowany | Sygnał kontraktowy bezużyteczny | Bardzo trudno, strukturalne |
| Zespół z prawdziwymi nazwiskami | Sygnał tożsamości bezużyteczny | Bardzo trudno, strukturalne |
| Brak oryginalnych dyskusji z forum | Brak sygnałów drugiego rzędu | Tak — dodać surowe wpisy z Discorda i forum |
| Powolny rug bez punktu zwrotnego | Wykrywanie anomalii nie działa | Potrzebne narzędzia analizy szeregów czasowych |
Wniosek z projektu C: AI dobrze radzi sobie ze „starymi rug pullami” (pusty adres zespołu + skopiowany kontrakt + fałszywa tożsamość), ale praktycznie nie radzi sobie z „powolnym rug”. To kluczowa lekcja, która zmusiła nas do przebudowy procesu due diligence.
5. 5 typów sygnałów, w których AI naprawdę jest dobra #
Jeśli zsumujesz sukcesy i porażki z 3 przypadków, granice tego, co AI potrafi przy rug pullach, są dość wyraźne. Oto 5 obszarów, w których naprawdę ci pomoże:
- Powiązania historii adresów: jaki los spotkał inne kontrakty wdrożone przez ten sam adres deployera w ciągu ostatnich 6-12 miesięcy. To największa przewaga AI nad człowiekiem pod względem szybkości — człowiekowi zajmuje to godzinę, AI kilka minut.
- Podobieństwo kodu źródłowego kontraktów: w szczególności podobieństwo do znanych kontraktów rug pull. Code Interpreter i Claude robią to dobrze.
- Weryfikacja syntetycznych tożsamości zespołu: weryfikacja krzyżowa LinkedIn, GitHub i historii wypowiedzi — Perplexity z dostępem do sieci robi to najszybciej.
- Whitepaper vs rzeczywistość: czy deklarowani audytorzy, inwestorzy i partnerzy są do znalezienia w publicznych bazach. Claude w długich dokumentach jest niepokonany.
- Rozjazdy wskaźników on-chain: czy TVL, liczba posiadaczy i wolumen są ze sobą spójne. Dane z Dune + analiza ChatGPT/Claude.
Czego AI prawie nie potrafi: wywęszyć „gotowanej żaby”. Powolny rug, manipulacje na poziomie governance, długoterminowe rozcieńczanie wartości — to wymaga ludzkiego, długoterminowego śledzenia kultury projektu.
6. Szablon promptu, którego używamy #
Ten szablon przepuszczamy teraz przez każdy nowy projekt, na który patrzymy. W 30 minut odsiewa większość staromodnych rug pulli:
Jesteś rygorystycznym analitykiem due diligence projektów krypto. Na podstawie poniższych materiałów wystaw ocenę ryzyka rug pull (skala 0–10).
Materiały:
[1] Adres deployera kontraktu: {ADRES}
[2] Zweryfikowany kod kontraktu: {KOD_ZRODLOWY}
[3] Lista linków LinkedIn ze strony zespołu: {LINKI}
[4] PDF whitepapera: {ZALACZNIK}
[5] Wskaźniki on-chain z ostatnich 30 dni: TVL={X}, posiadacze={Y}, koncentracja top10={Z}%
[6] Deklarowany audytor: {AUDYTOR}
Wymagania:
1. Dla każdego sygnału ostrzegawczego podaj „dowód + ocenę (niska/średnia/wysoka)” — bez gołosłowia.
2. Nie przewiduj „czy będzie rug”, tylko opisz aktualną strukturę ryzyka.
3. Jeśli materiały nie wystarczą do oceny czegoś, napisz „za mało informacji”.
4. Na końcu wystaw 0–10 i podaj 3 najmocniejsze powody „nie inwestuj” (jeśli nie ma mocnych powodów, napisz „brak wyraźnych sygnałów ostrzegawczych”).
5. Podaj 3 kierunki, których nie jesteś w stanie zweryfikować (twoje martwe pola).
Ostatni punkt — „podaj 3 kierunki, których nie jesteś w stanie zweryfikować” — dodaliśmy później. Wymuszenie na AI, żeby przyznała się do swoich ograniczeń, paradoksalnie sprawia, że jej wynik jest bardziej wiarygodny. Jeśli AI napisze „nie mam dostępu do wewnętrznych dyskusji na Discordzie”, od razu wiesz, gdzie musisz dołożyć ręczne sprawdzenie.
AI nie zatrzyma wszystkich rug pulli. Ale potrafi odsiać 70% tanich, masowych rugów — i to pozwala ci zachować ludzką uważność dla tych nielicznych projektów, które „naprawdę wyglądają poważnie” i wymagają długiego śledzenia.
Sprawdź Binance Research spot → Zobacz pełną bibliotekę promptów →
— AI Trade Lab, 2026-04-25
rel="sponsored"). Rejestracja przez te linki może wygenerować dla nas prowizję — nie wpływa to na koszty rejestracji ani opłaty transakcyjne po twojej stronie.
Pełne ujawnienie →