CISA dodaje krytyczną lukę LiteLLM do katalogu KEV po potwierdzeniu aktywnego wykorzystania - Security Bez Tabu

CISA dodaje krytyczną lukę LiteLLM do katalogu KEV po potwierdzeniu aktywnego wykorzystania

Cybersecurity news

Wprowadzenie do problemu / definicja

Amerykańska agencja CISA dodała podatność CVE-2026-42208 w projekcie BerriAI LiteLLM do katalogu Known Exploited Vulnerabilities. Oznacza to, że luka nie jest już traktowana wyłącznie jako ryzyko teoretyczne, lecz jako problem bezpieczeństwa wykorzystywany w rzeczywistych atakach.

Podatność dotyczy krytycznego błędu typu SQL injection w ścieżce weryfikacji kluczy API w komponencie proxy. W praktyce napastnik może wpływać na zapytania wykonywane wobec bazy danych bez wcześniejszego uwierzytelnienia, co znacząco podnosi poziom zagrożenia.

W skrócie

LiteLLM to popularna warstwa pośrednicząca dla usług opartych na dużych modelach językowych, wykorzystywana do routingu żądań do wielu dostawców przez zunifikowany interfejs API. W wersjach od 1.81.16 do 1.83.6 wykryto lukę CVE-2026-42208 o wysokiej krytyczności, ocenianą na 9.3 w skali CVSS.

Błąd umożliwia przeprowadzenie nieautoryzowanego ataku SQL injection przy użyciu odpowiednio spreparowanego nagłówka Authorization wysyłanego do tras API, takich jak endpointy obsługujące żądania modeli. Producent usunął problem w wersji 1.83.7, jednak próby wykorzystania podatności odnotowano bardzo szybko po jej publicznym ujawnieniu.

  • podatne są wersje 1.81.16–1.83.6,
  • naprawa została wdrożona w wersji 1.83.7,
  • atak nie wymaga wcześniejszego logowania,
  • celem mogą być sekrety i konfiguracja przechowywana przez proxy.

Kontekst / historia

Infrastruktura AI coraz częściej staje się celem zaawansowanych kampanii ofensywnych. Narzędzia takie jak LiteLLM działają często jako centralna brama do wielu modeli i dostawców, a przez to przechowują dane o dużej wartości operacyjnej i biznesowej.

W praktyce oznacza to, że kompromitacja jednego komponentu pośredniczącego może otworzyć drogę do dostępu do zewnętrznych usług, kont rozliczeniowych, sekretów aplikacyjnych i konfiguracji środowiska. To właśnie dlatego luki w warstwie proxy dla systemów AI zyskują dziś znaczenie porównywalne z podatnościami w klasycznych bramach API.

Po publicznym ujawnieniu CVE-2026-42208 badacze bezpieczeństwa zaobserwowali szybkie zainteresowanie ze strony napastników. Zgromadzone obserwacje wskazywały, że działania nie ograniczały się do prostego skanowania internetu, lecz obejmowały bardziej precyzyjne próby odczytu konkretnych struktur bazy danych LiteLLM.

Analiza techniczna

Istotą problemu było niebezpieczne budowanie zapytania SQL podczas sprawdzania klucza API w warstwie proxy. Zamiast zastosować parametryzację zapytania, aplikacja osadzała wartość dostarczoną przez użytkownika bezpośrednio w treści instrukcji kierowanej do bazy danych.

Taki wzorzec jest klasycznym źródłem SQL injection. Jeżeli aplikacja nie filtruje poprawnie danych wejściowych, atakujący może doprowadzić do zmiany logiki zapytania, odczytu rekordów, enumeracji schematu bazy, a w niektórych scenariuszach również do modyfikacji danych.

Scenariusz wykorzystania jest szczególnie niebezpieczny, ponieważ nie wymaga posiadania ważnych poświadczeń. Wystarczy wysłać odpowiednio przygotowany nagłówek Authorization do podatnego endpointu API. Dodatkowym problemem jest możliwość trafienia na podatną ścieżkę również przez mechanizmy obsługi błędów, co poszerza powierzchnię ataku.

Najbardziej atrakcyjne dla napastników są zasoby przechowywane przez LiteLLM, w tym:

  • wirtualne klucze API używane przez klientów i usługi wewnętrzne,
  • poświadczenia do zewnętrznych dostawców modeli,
  • zmienne środowiskowe i konfiguracja proxy,
  • informacje przydatne do dalszej eskalacji lub ruchu bocznego.

Według obserwacji badaczy próby wykorzystania wskazywały na znajomość schematu bazy danych LiteLLM. To sugeruje, że atakujący analizowali podatność pod kątem realnej eksfiltracji sekretów, a nie wyłącznie jako element automatycznych testów podatności.

Konsekwencje / ryzyko

Ryzyko związane z CVE-2026-42208 należy ocenić jako bardzo wysokie. Po pierwsze, mamy do czynienia z atakiem typu pre-auth, możliwym przed uwierzytelnieniem. Po drugie, luka występuje w centralnym komponencie integrującym dostęp do wielu usług AI. Po trzecie, potencjalnie zagrożone są dane uwierzytelniające, których utrata może prowadzić do wtórnych incydentów.

W skrajnym scenariuszu skutki mogą obejmować ujawnienie kluczy do zewnętrznych platform AI, przejęcie kontroli nad ruchem obsługiwanym przez proxy, modyfikację konfiguracji oraz dalsze nadużycia z użyciem przejętych kont usługowych. Dla organizacji oznacza to zarówno ryzyko operacyjne, jak i finansowe.

  • wyciek sekretów i tokenów API,
  • naruszenie poufności danych konfiguracyjnych,
  • możliwość ruchu bocznego do innych systemów,
  • wzrost kosztów związanych z nadużyciem skradzionych zasobów,
  • konieczność analizy incydentu i rotacji poświadczeń.

Samo dodanie podatności do katalogu KEV przez CISA jest istotnym sygnałem dla zespołów bezpieczeństwa. Taka klasyfikacja wskazuje, że luka ma praktyczne znaczenie operacyjne i powinna uzyskać najwyższy priorytet w procesie remediacji.

Rekomendacje

Podstawowym krokiem powinno być natychmiastowe zaktualizowanie LiteLLM do wersji 1.83.7 lub nowszej. Organizacje korzystające z wydań 1.81.16–1.83.6 powinny potraktować tę zmianę jako pilne działanie bezpieczeństwa, a nie standardową czynność utrzymaniową.

Równolegle warto wdrożyć działania ograniczające skutki potencjalnego naruszenia oraz zwiększające szanse wykrycia aktywności napastników.

  • przeprowadzić inwentaryzację wszystkich instancji LiteLLM w środowiskach produkcyjnych, testowych i deweloperskich,
  • przeanalizować logi aplikacyjne i bazodanowe pod kątem nietypowych nagłówków Authorization oraz prób enumeracji schematu,
  • obrócić wszystkie klucze API i poświadczenia, jeśli istnieje podejrzenie ekspozycji,
  • ograniczyć dostęp sieciowy do endpointów proxy wyłącznie do zaufanych segmentów,
  • wdrożyć reguły detekcji dla prób SQL injection i nietypowych zapytań do tabel przechowujących sekrety,
  • rozważyć izolację lub czasowe wyłączenie instancji, których nie można szybko zaktualizować.

Jeżeli wdrożenie poprawki nie jest możliwe natychmiast, warto zastosować dostępne środki tymczasowe rekomendowane przez producenta, w tym ograniczenie ścieżki ataku przez odpowiednią konfigurację obsługi błędów. Nie zastępuje to pełnej aktualizacji, ale może zmniejszyć ekspozycję do czasu usunięcia luki.

Podsumowanie

CVE-2026-42208 w LiteLLM to przykład krytycznej podatności w infrastrukturze AI, która bardzo szybko przeszła od publicznego ujawnienia do aktywnej eksploatacji. Połączenie braku wymogu uwierzytelnienia, wysokiej wartości przechowywanych danych oraz centralnej roli proxy sprawia, że zagrożenie należy traktować priorytetowo.

Dla zespołów DevOps, SOC i architektów bezpieczeństwa kluczowe znaczenie mają dziś trzy działania: szybka aktualizacja, rotacja sekretów oraz szczegółowa weryfikacja, czy podatna instancja nie została już wykorzystana. Dodanie luki do katalogu KEV przez CISA wyraźnie pokazuje, że problem ma wymiar praktyczny i wymaga natychmiastowej reakcji.

Źródła

  1. BerriAI LiteLLM Security Advisory
  2. NVD: CVE-2026-42208
  3. CISA Known Exploited Vulnerabilities Catalog
  4. Security Affairs
  5. Sysdig Threat Research