
Wprowadzenie do problemu / definicja luki
Zła wiadomość: „odblokowane” (pozbawione barier) duże modele językowe przestały być ciekawostką z podziemia. Najnowsze śledztwo Unit 42 (Palo Alto Networks) opisuje dwa aktywnie używane przez cyberprzestępców modele — WormGPT 4 oraz KawaiiGPT — które dostarczają gotowe komponenty do ataków: od generowania realistycznych kampanii BEC/phishing, przez skrypty do ruchu bocznego, po funkcjonalne fragmenty „lockera” do szyfrowania plików. Dziennikarze i analitycy branżowi potwierdzają: bariera wejścia dla mniej doświadczonych napastników dalej spada.
W skrócie
- WormGPT 4 (płatny, „bez ograniczeń”) generuje m.in. działający skrypt szyfrujący i profesjonalne noty okupu; sprzedawany jest w modelu subskrypcyjnym lub „lifetime” (w doniesieniach pada $50/mies. lub $220 jednorazowo).
- KawaiiGPT (wariant społecznościowy, lokalny) automatyzuje spear-phishing, przygotowuje skrypty Python do ruchu bocznego (np. z użyciem
paramiko) i prostą eksfiltrację. - Oba modele mają aktywną bazę użytkowników na Telegramie i forach, co obniża próg wejścia dla „script kiddies”.
- Instytucje rządowe (CISA/NSA) publikują wytyczne zabezpieczenia danych i systemów AI — AI w środowiskach firmowych trzeba traktować jak system o podwyższonym ryzyku.
Kontekst / historia / powiązania
WormGPT po raz pierwszy wypłynął w 2023 r. Projekt zniknął, ale w 2025 r. wrócił jako WormGPT 4, deklarując „brak ograniczeń etycznych” i profilowanie pod cyberprzestępcze use-case’y. Jednocześnie rozkwita ekosystem „ciemnych LLM-ów” (dark LLMs), które — choć często technicznie przeciętne — wyrównują kompetencje mniej zaawansowanych sprawców, dając im język, scenariusze i kod-szablony. Relacje branżowe i prasowe (BleepingComputer, Dark Reading, The Register) zbieżnie opisują trend oraz model monetyzacji.
Analiza techniczna / szczegóły luki
WormGPT 4 (testy Unit 42)
- Locker: model wygenerował PowerShell szyfrujący wskazane typy plików (np. PDF) algorytmem AES-256, z możliwością konfiguracji ścieżek/rozszerzeń. Badacze odnotowali nawet opcję eksfiltracji przez Tor.
- Ransom note: spójna, perswazyjna notatka z „military-grade encryption” i deadline’em 72h.
- Socjotechnika/BEC: „wiarygodna manipulacja językowa”, minimalne błędy językowe, dobrze „udające” komunikację biznesową.
KawaiiGPT (testy Unit 42)
- Spear-phishing: generowanie dopracowanych szablonów z wiarygodnym spoofingiem domen i łańcuchami linków do zbierania poświadczeń.
- Ruch boczny: generowanie skryptów Python korzystających z
paramikodo zdalnego wykonania poleceń. - Eksfiltracja: proste skrypty wyszukujące pliki (np.
os.walk) i wysyłające pakiety na kontrolowany adres (np.smtplib). - Noty okupu: szablony z możliwością dostosowania instrukcji płatności i terminów.
Uwaga redakcyjna: powyższe to opis wyników badań. Nie publikujemy kodu ani kroków operacyjnych.
Praktyczne konsekwencje / ryzyko
- Skalowanie ataków: mniej doświadczeni napastnicy uzyskują „asystenta” do szybkiego tworzenia treści phishingowych i „klejenia” łańcuchów ataku. Efekt: więcej poprawnie napisanych maili i krótszy czas przygotowania.
- Wiarygodność treści: „czarne LLM-y” niwelują charakterystyczne błędy językowe; filtry w secure email gateways wymagają silniejszego ML i korelacji kontekstowej.
- Model biznesowy: tani dostęp (subskrypcja/lifetime) + kanały Telegram → łatwe wejście i szybkie „uczenie się” przez społeczność.
- Ryzyko dla compliance: użycie niezweryfikowanych LLM-ów przez pracowników (shadow AI) = ryzyko wycieku danych i naruszeń polityk. CISA/NSA zalecają traktować dane i pipeline’y AI jako zasób krytyczny.
Rekomendacje operacyjne / co zrobić teraz
- Zamknij „shadow AI”: polityka firmowa określająca dozwolone modele, kanały dostępu (SaaS vs. self-host), wymagania DLP i rejestrowanie zapytań. Odwołaj się do zaleceń CISA/NSA dot. bezpieczeństwa danych w cyklu życia AI.
- E-mail i web security „pod LLM”: aktualizuj reguły EOP/SEG, dodaj analizę semantyczną treści i sygnały kontekstowe (np. nietypowe domeny, „tylko odpowiedz”, żądania pilnych przelewów). Podbij detekcję BEC korelacją z systemami finansowymi.
- Hunting & detections (bez publikacji IoC-ów z podziemia):
- Nietypowy PowerShell szyfrujący/operujący na masowych plikach;
- Egzekucje Python z bibliotekami zdalnego dostępu (
paramiko); - Eksfiltracja SMTP z hostów użytkowników;
- Aktywność Tor/SOCKS z endpointów biurowych. (Wnioski na bazie testów Unit 42).
- Segregacja i kontrola danych dla AI: etykietowanie wrażliwości, guardrails na warstwie promptów, filtry wstępne, red teaming AI; wdrożenie zasad z dokumentu CSI „AI Data Security”.
- Szkolenia: nowy moduł „LLM-phishing/BEC” dla użytkowników biznesowych (zmiana tonu/gramatyki, „bezbłędne” maile, presja czasu, prośby o poufność). Potwierdzają to obserwacje Dark Reading o „wyrównywaniu kompetencji” przez dark LLM-y.
- Zespół prawny & zakupowy: klauzule bezpieczeństwa danych AI, prawo audytu dostawcy, lokalność przetwarzania, retencja, „no-train” na danych klienta.
Różnice / porównania z innymi przypadkami (jeśli dotyczy)
- Jailbreaki mainstreamowych LLM-ów vs. dedykowane „ciemne” LLM-y: w 2023–2024 najczęściej próbowano „naginać” polityki ChatGPT/Gemini/Claude. W 2025 mamy produkty tworzone wprost do przestępstw, więc brak barier jest założeniem projektowym.
- Poziom techniczny: część „dark LLM-ów” bywa niedojrzała technicznie, ale dla „petty crime” to wystarczy, bo automatyzują nudne etapy: treści, glue-code, checklisty.
Podsumowanie / kluczowe wnioski
- Operacjonalizacja dark LLM-ów stała się faktem — nie są to już „proof-of-concepts”.
- Dla obrońców to oznacza: nowa fala dobrze napisanych phishingów, proste skrypty do ruchu bocznego i tańszy dostęp do tooling’u.
- Odpowiedź: polityka AI w firmie + zabezpieczenie danych dla AI + detekcje pod kątem TTP-ów generowanych przez LLM + świadomość użytkowników.
- Śledź publikacje badawcze (Unit 42) i wytyczne rządowe (CISA/NSA) — tempo zmian jest wysokie.
Źródła / bibliografia
- BleepingComputer: „Malicious LLMs empower inexperienced hackers with advanced tools”, 27 listopada 2025. (Przegląd badań Unit 42; konkretne przykłady generowanych artefaktów). (BleepingComputer)
- Unit 42 (Palo Alto Networks): „The Dual-Use Dilemma of AI: Malicious LLMs” – raport opisujący WormGPT 4 i KawaiiGPT (publ. w tym tygodniu). (Unit 42)
- Dark Reading: „‘Dark LLMs’ Aid Petty Criminals, But Underwhelm Technically”, 26 listopada 2025 (kontekst o wyrównywaniu kompetencji). (Dark Reading)
- The Register: „Lifetime access to AI-for-evil WormGPT 4 costs just $220”, 25 listopada 2025 (model monetyzacji, trend narzędzi „bez ograniczeń”). (The Register)
- CISA / DoD: „AI Data Security” (CSI), 22 maja 2025 — wytyczne zabezpieczenia danych i pipeline’ów AI w organizacjach. (U.S. Department of War)


