Uživatelské nástroje

Nástroje pro tento web


cyber:pentesting

Penetrační testování a Red Teaming

V oblasti kybernetické bezpečnosti jsou penetrační testování a Red Teaming dvěma hlavními metodami, jak aktivně prověřovat odolnost systémů. Ačkoliv se často zaměňují, jejich cíle, rozsah a metodika se výrazně liší.

1. Penetrační testování (Pen-testing)

Penetrační test je autorizovaný a simulovaný útok na počítačový systém, aplikaci nebo síť s cílem najít zranitelnosti.

  • Cíl: Identifikovat co nejvíce zranitelností v daném časovém rámci.
  • Rozsah: Obvykle omezen na konkrétní aplikaci, IP adresy nebo segment sítě.
  • Povaha: Systematické hledání chyb (např. SQL injection, slabá hesla, neaktualizovaný software).
  • Výstup: Podrobný seznam nálezů s doporučením k jejich opravě.

2. Red Teaming

Red Teaming je komplexní simulační cvičení, které testuje nejen technologie, ale i lidi a procesy. Simuluje reálného útočníka (APT - Advanced Persistent Threat), který má konkrétní cíl (např. zcizit databázi klientů).

  • Cíl: Prověřit detekční a reakční schopnosti organizace (Blue Teamu).
  • Rozsah: Široký. Zahrnuje technologický útok, sociální inženýrství i fyzické vniknutí do budovy.
  • Povaha: Skrytá operace. O testu ví jen minimum lidí v organizaci, aby byla reakce IT týmu autentická.
  • Výstup: Hodnocení toho, jak hluboko se útočník dostal a jak efektivně byl (nebo nebyl) odhalen.

Srovnání metod

Vlastnost Penetrační testování Red Teaming
Hlavní zaměření Zranitelnosti a chyby (Assets) Schopnost detekce a reakce (People/Process)
Délka trvání 1–4 týdny Měsíce
Nápadnost Často odhalitelný (skenování) Velmi nízká (stealth)
Metodika OWASP, PTES, NIST TIBER-EU, MITRE ATT&CK
Výsledek Seznam „děr“ k záplatování Zlepšení celkové bezpečnostní strategie

Red Teaming v éře AI

S nástupem modelů jako ChatGPT nebo TensorFlow se objevuje nová disciplína: AI Red Teaming. Ten se zaměřuje na specifické útoky proti umělé inteligenci:

  • Prompt Injection: Pokusy přimět model ignorovat své instrukce a vygenerovat škodlivý obsah.
  • Data Poisoning: Manipulace s trénovacími daty za účelem vytvoření „zadních vrátek“ v modelu.
  • Exfiltrace modelu: Snaha ukrást váhy modelu nebo citlivá data, na kterých byl model trénován.

Blue Team a Purple Teaming

Kromě útočného týmu (Red Team) existují i další role:

  • Blue Team: Obránci. Monitorují síť, detekují útoky a reagují na incidenty.
  • Purple Teaming: Model spolupráce, kde Red Team a Blue Team pracují společně v reálném čase. Red Team provede útok a okamžitě s Blue Teamem probírá, zda byl vidět v logách a jak zlepšit detekci.
Tip: Pro menší firmy je vhodnější začít pravidelným penetračním testováním. Red Teaming je určen pro zralé organizace, které už mají vybudované silné obranné mechanismy a chtějí je otestovat pod reálným tlakem.

Související témata:

cyber/pentesting.txt · Poslední úprava: autor: admin