Autonomie a umělá inteligence zásadně mění oblast kybernetické bezpečnosti. Článek se zaměřuje na aktuální trendy, jako je využití AI pro autonomní detekci a reakci na hrozby, snižování falešných poplachů a automatizaci analýzy incidentů. Zároveň upozorňuje na rizika spojená s únavou analytiků SOC, ztrátou důvěry v bezpečnostní technologie a nutností rychlé adopce moderních obranných postupů. Budoucnost bezpečnosti je v propojení AI, autonomie a efektivní ochrany před stále sofistikovanějšími útoky.
AI kybernetická bezpečnost chráněná osoba trendy
Když jsem se nedávno připravoval na přednášku, zjišťoval jsem si pomocí Copilota data a trendy v kybernetické bezpečnosti. Zajímalo mě zejména, jak si dnešní SOCy stojí v oblastech typu únava z objemu falešných alertů („alert fatigue“). Tento pochopitelný, ale nežádoucí fenomén je způsoben tím, že lidé odpovědní za řešení kybernetických incidentů jsou zahlceni upozorněními, která sic vypadají jako reálná hrozba, tak nejsou aktivitou útočníka. Jenže lidé na SOCu si nemohou vybrat alert, který vyšetřovat nebudou ani na úrovni L1 a který budou. Minimálně je potřeba vynaložit úsilí na potvrzení, že se o tzv. „false positive“ jedná, a daný ticket v nějakém service desk nástroji odbavit, což většinou znamená minimálně vyplnit, kdo daný ticket uzavírá, proč jej hodnotí jako falešné hlášení, jestli mluvil s uživatelem či správcem aplikace či systému atd. Není problém nad takovým ticketem strávit třeba deset a více minut.
Když se podíváme na data z let 2019–2024, řada studií uvádí „false positive“ míru 30–50 %. Tedy třetina až polovina všech upozornění je falešných, detekujících legitimní chování či legitimní anomálii. Mohlo by se zdát, že toto číslo, jakkoli velké, nepředstavuje žádný problém, avšak opak je pravdou, pakliže se začneme dívat do témat, jako je vyhoření zaměstnanců, kteří musejí tyto duchy řešit, nebo eroze důvěry v bezpečnostní technologie jako takové. A to může být velmi nebezpečné, protože stejně jako různé formy dezinformací provádějí dlouhodobou erozi důvěry v autority, vědu či zřízení, čímž napomáhají manipulovat lidmi jakýmkoli směrem, tak v případě kyberbezpečnosti může být velmi nebezpečné, pokud přestaneme věřit své vlastní obraně. Kdo nás pak ochrání před námi samotnými?
V současnosti se vkládá nemalá důvěra v umělou inteligenci a autonomii systémů. Cílem není ani tak nahradit lidskou sílu v rámci prevence či řešení kybernetických hrozeb, jako spíše snížit chronický nedostatek lidí, který nejen v oblasti kybernetické či informační bezpečnosti vidíme. Ba co více, celá řada implementací a vizí AI v rámci kybernetické bezpečnosti se týká autonomie, a to např. pro scénáře, jako je analýza hrozeb nebo limitace škod probíhajícího útoku pro snížení dopadu útoku. V následujícím textu si některé z implementací a scénářů AI v rámci kybernetické bezpečnosti rozebereme.
Autonomie
Jedním z trendů, který společně s AI přichází, je samostatnost (autonome). Představme si, že bezpečnostní systém dokáže bez lidského zásahu analyzovat malware v rámci datasetů, které nikdy před tím nebyly analyzovány a jsou pro tento AI detektor zcela neznámé. A ve slově „neznámé“ mějme na paměti, že nejde jen o již známé verdikty, ale že takový AI agent nezná např. ani původ vzorku, systém, kde byl nalezen, nemá žádnou premisu nebo hypotézu. Ona neznalost původu je velmi důležitá právě i pro řešení míry false positives, a to proto, že pokud by AI agent věděl, že daný vzorek je považovaný za potenciálně škodlivý nebo byl v rámci forensní analýzy odebrán z napadeného systému, mohlo by to jeho rozhodování a přesnost ovlivnit. Jednoduše tím, že by si agent vytvořil hypotézu říkající „soubor byl nalezen v rámci vyšetřování útoků, je tedy potenciálně škodlivý“ a dále se bude snažit hypotézu primárně potvrdit, sekundárně vyvrátit. Přesnější by bylo „nevím odkud vzorek je, ale musím zjistit, jestli je škodlivý, nebezpečný, podezřelý nebo opačně“. Toto řeší např. Project Ire.
Dvě počáteční hodnocení testovala účinnost Project Ire jako autonomního klasifikátoru malwaru. V prvním se hodnotilo na základě souborů veřejně přístupných ovladačů pro Windows, z nichž některé jsou známé jako škodlivé, jiné neškodné. Škodlivé vzorky pocházejí z databáze „Living off the Land Drivers“, která obsahuje sbírku ovladačů Windows používaných útočníky k obcházení bezpečnostních systémů, zatímco známé neškodné ovladače pocházely ze služby Windows Update. Klasifikátor správně identifikoval 90% všech souborů a pouze 2% neškodných souborů označil jako hrozbu. Dosáhl přesnosti 0,98 (precision) a úplnosti 0,83 (recall). Tato nízká míra falešných poplachů naznačuje potenciál pro nasazení v bezpečnostních produktech spolu s odborným reverzním inženýrstvím, které nadále bude dělat člověk. Pro každý soubor, který se analyzuje, Project Ire vygeneruje zprávu obsahující část důkazů, souhrny všech zkoumaných funkcí kódu a další technické artefakty.
Obr. 1: Výsledná zpráva analýzy souboru pomocí autonomního AI agenta Project Ire
Náročnější test zahrnoval téměř 4 000 souborů, které nebyly klasifikovány automatizovanými systémy a byly určeny k ruční kontrole odbornými reverzními inženýry. V tomto reálném scénáři Project Ire fungoval plně autonomně se soubory, které však byly vytvořeny až po ukončení trénování jazykových modelů, které Project Ire používá. Tedy jednoduše řečeno, na tyto soubory nebyly AI modely trénovány. Zároveň tyto soubory v té době nedokázaly klasifikovat žádné jiné automatizované nástroje v Microsoftu. Systém dosáhl vysokého skóre přesnosti 0,89, což znamená, že téměř 9 z 10 souborů označených jako škodlivé bylo správně identifikováno. Recall (úplnost) byl 0,26, což znamená, že za těchto náročných podmínek systém detekoval zhruba čtvrtinu veškerého skutečného malwaru. Systém správně identifikoval mnoho škodlivých souborů s pouze 4% mírou
falešných poplachů. Tato slibná kombinace přesnosti a nízké chybovosti naznačuje skutečný potenciál pro budoucí nasazení, a to už jen proto, že takové hodnoty jsou dosaženy ve fázi projektu.
Obr. 2: Příklad uložení hesla účtu do volně čitelného pole účtu v AD
Automatic Attack Disruption
Automatické narušení útoku (Automatic Attack Disruption) je pokročilá bezpečnostní funkce integrovaná např. v rámci Microsoft Defender XDR, která je navržena tak, aby v reálném čase detekovala, analyzovala a aktivně zastavovala probíhající kybernetické útoky napříč prostředím organizace. Jejím hlav
ním cílem je minimalizovat škody a snížit dopad útoku tím, že automaticky reaguje na podezřelé aktivity dříve, než mohou útočníci dokončit své škodlivé akce jako celek. Představme si situaci, kdy se v rámci podnikové sítě podaří útočníkovi ovládnout menší počet koncových stanic, které dále chce použít pro šíření v síti a způsobení větší škody (tzv. Laterall movement). Ve chvíli, kdy jsou zaznamenány právě takové anomálie či podezřelé aktivity, může systém sám rozhodnout o izolaci již napadených systémů od těch, které ještě zcela ovládnuty nebyly pro snížení onoho dopadu útoku. Tedy namísto 100% zašifrovaných systémů pomocí ransomwaru může být míra ztráty třeba jen 2%. Ale klíčová vlastnost se neskrývá v detekční schopnosti jako takové, ale právě v autonomii systému.
Technologie využívá kombinaci strojového učení, behaviorální analýzy a rozsáhlých datových sad o hrozbách z cloudového prostředí. Automatické narušení útoku využívá signálů, které jsou kontinuálně sbírány z koncových zařízení nebo serverů, aplikací, uživatelských i systémových identit či síťových toků v rámci organizace. Jakmile identifikuje neobvyklý vzorec chování, např. laterální pohyb útočníka, eskalaci oprávnění nebo nasazení ransomwaru, okamžitě zahájí automatizovanou akci. Např.:
- Izolace napadeného zařízení od sítě.
- Blokace kompromitovaných uživatelských účtů.
- Ukončení škodlivých procesů.
- Aktivace politik pro omezení šíření útoku.
Výhodou je, že zásah probíhá bez operátora SOC, což umožňuje reagovat v řádu sekund nebo minut, a tím se výrazně snižuje riziko úspěšného útoku. Aby se minimalizoval nechtěný dopad z důvodu „false positive“, systém s každým upozorněním, které generuje, počítá míru důvěry, kterou v daný alert má. A tato popisovaná funkce autonomní reakce je aplikovatelná pouze na ta upozornění, kde míra jistoty přesahuje hodnotu 99%.
Detekce hesel uložených v atributech účtů Active Directory
V identitních systémech, jako je Active Directory (AD) nebo Microsoft Entra ID, jsou textová pole, která lze plně editovat. Správcům umožňují ukládat nestrukturovaná nebo částečně strukturovaná data. Vzhledem k tomu, že jsou flexibilní a nejsou striktně řízena omezeními schématu, lze tato textová pole použít také k integraci se systémy HR nebo k řešení správy privilegovaného přístupu (PAM). Využití je velmi pestré. V prostředích hybridních identit hrají pole s prostým textem klíčovou roli. Správci se na ně spoléhají pro ukládání informací, jako jsou nákladová střediska, projektové štítky nebo starší systémové odkazy během synchronizace. Jejich nestrukturovaná povaha však také přináší riziko. Pokud jsou v těchto polích uložena citlivá data, jako jsou přihlašovací údaje nebo osobní identifikátory, bez řádných kontrol, mohou se stát cenným zdrojem informací pro útočníka. Systémové identity (známé také jako Non-Human Identitities – NHI) jsou tímto problémem často ovlivněny více. NHI nemohou využívat stejné bezpečnostní mechanismy, jako je např. MFA. Takové účty, mnohdy s vysokými právy, představují velmi cenný úlovek pro útočníky. Správci, kteří jsou již tak pod tlakem na zachování provozuschopnosti a zajištění automatizace, mohou ukládat přihlašovací údaje k těmto účtům do polí atributů ve formátu prostého textu. Např. účet služby používaný aplikací může mít heslo uložené v popisu nebo informačním poli objektu AD, aby se zjednodušilo řešení potíží nebo heslo neznal jen jeden správce.


Tyto praktiky, i když jsou účelné, vytvářejí pro útočníky cíl s vysokou hodnotou. V počátečním výzkumu a testování identifikovali vývojáři společnosti Microsoft více než 40 000 přihlašovacích údajů napříč 2 500 klienty. Ještě důležitější je, že stále častěji vidíme, že se na tyto oblasti zaměřují útočníci, aby získali přístup a pohybovali se dále v organizaci využitím zcela legitimních účtů. AI nevyužívají jen obránci, ale naopak již dávno byla generativní umělá inteligence adoptována útočníky. A právě díky rychlosti, rozsahu a přesnosti nástrojů poháněných umělou inteligencí se doba zneužití informací a následně účtů posunula z hodin na sekundy. V tomto případě se nejedná o nijak extrémně sofistikované využití AI, přínos faktu, že AI rozumí textu a dokáže vyhodnotit jeho smysl, je v tomto případě velký.
Detekce phishingu pomocí analýzy obsahu a záměru e-mailu
Bezpečnost e-mailové komunikace představuje nemalou výzvu pro uživatele i celé organizace. V průběhu let se útoníci posunuli od jednoduchých spamových kampaní k pečlivě vytvořeným phishingovým podvodům. Útočníci rovněž využívají generativní umělou inteligenci a trend v jejím používání při útocích je rozhodně vyšší než při obraně, kde je přístup k využití nejmodernějších nástrojů konzervativnější.
V případě detekce škodlivého chování na koncových zařízeních EDR (Endpoint Detection and Response) byla adopce této technologie v roce 2015 zhruba 10–15%, aby v roce 2019 stoupla na cca 30%, což je stále poměrně nízké číslo, připustíme-li, že EDR je základním stavebním kamenem detekce kybernetických hrozeb na zařízeních, jako jsou uživatelské stanice, servery nebo mobilní zařízení. Mezi roky 2020–2022 stoupla adopce na 42% a v současnosti se míra adopce EDR odhaduje na 57%. I mírně nadpoloviční adopce může být po právu považována na nízkou hodnotu s ohledem na fakt, že číslo pozitivně ovlivňuje adopce zejména ve velkých společnostech.

V analýze podezřelých zpráv se tedy čím dál tím více uplatňuje detekce pomocí pokročilé analýzy přirozeného jazyka, což organizacím umožňuje lépe detekovat jemné manipulativní e-maily navržené tak, aby nalákaly nic netušící uživatele např. k přeposlání důvěrných dat nebo převodu finančních prostředků. Hrozby se však netýkají jen tzv. BEC (Business E-Mail Compromise). Phishingové útoky se neustále vyvíjejí a využívají nové taktiky a formy. Např. Microsoft Defender for Office 365 používá stejný robustní systém využívající velké i malé jazykové modely (LLM i SLM) umělé inteligence.
Nový jazykový model umělé inteligence v Microsoft Defender pro Office 365 se postupně učí z tisíců reálných pokusů o phishing a analyzuje všechny zprávy klasifikované jako phishing. Kromě toho zahrnuje pokročilé techniky strojového učení a zpracování přirozeného jazyka (Natural Language Processing – NLP) pro čtení, zpracování a pochpení obsahu e-mailů tak, jak by to dokázal lidský analytik, ale za zlomek času a v obrovském měřítku. Model funguje od dubna 2025, dosahuje přesnosti přes 99,99% a denně zablokuje přes 1 mil. phishingových e-mailů
Analýza skriptů pomocí AI
Až doposud jsme psali o funkcích, které jsou více či méně schované někde v útrobách bezpečnostních technologií a na samotnou funkčnost nemá administrátor či bezpečnostní analytik vliv. Naopak takový vliv by byl spíše nežádoucí. Nyní si popíšeme několik funkcí, které mají naopak za cíl usnadnit život např. samotnému analytikovi SOC. Jestli analytik SOC nebo obecně řečeno člověk odpovědný za bezpečnost v organizaci něco nemá, tak je to čas. A kdo někdy vyšetřoval nějaké upozornění o podezřelé, či dokonce přímo škodlivé aktivitě na koncovém zařízení a měl k dispozici EDR, tak ví, že se často setká s různými skripty, které „něco“ dělají. Řada z nich (spíše drtivá většina) budou zcela legitimní skripty, které provádějí zcela rutinní a běžné funkce. Ale pak se v časové ose objeví skript, u kterého si jeho samotným účelem nejsme tak jistí. Ve větších organizacích by se kontaktoval zkušenější kolega, kterému se zadá „ticket“, aby onen kód analyzoval a posoudil k čemu slouží. V menších firmách je to vše většinou v gesci IT. A ne vždy musí být zpětná analýza skriptu buďto v prioritách již tak časově zaneprázdněných lidí, nebo chybí zkušenost.
K řešení podobných situací budou sloužit a slouží osobní asistenti – copiloti. Ve slovníku Microsoftu je to Security Copilot a funkce Script Analysis. Tato funkce umožňuje komukoli rychle analyzovat a pochopit skripty jako PowerShell, Python nebo shell skripty. AI dokáže během pár sekund zjistit, co skript dělá, nebo identifikovat rizika. Co je ale zároveň přidanou hodnotou je fakt, že různé prompty včetně zmiňované analýzy skriptů mohou být sestaveny do předem definovaného Promptbooku, tedy sady promptů, které jsou rutinně zpracovány. To eliminuje riziko, kdy jeden analytik umí AI používat lépe než druhý nebo lidskou touhu si věci ulehčovat a některé kroky přeskakovat.
Obr. 5: Konverze lidského jazyka do jazyka KQL pomocí Security Copilot
Samotný Copilot umí funkcí mnohem více, ale tato je velmi dobře využitelná všemi v rámci bezpečnosti a nemusí jít jen o nováčky nebo jen o experty. Na Obr. 5 můžete vidět, že analýza Powershell skriptu, který byl nalezen na stanici s Windows 11, trvala AI 19 sekund. Za takovou dobu by jeden člověk druhému ani nevysvětlil, co po něm chce. Toto je reálná hodnota AI v rámci kyberbezpečnosti, pakliže se jedná o urychlení práce analytika.
Tvorba dotazů do databáze s pomocí AI
Jednou z klíčových funkcí XDR nástrojů bez ohledu na výrobce je případná možnost vytvářet dotazy do sebraných signálů a logů z různých zdrojů, jako jsou identity nebo zařízení. Možnost psát vlastní dotazy a hledat data je základním kamenem pro práci bezpečnostních analytiků a tzv. threat hunterů. Avšak schopnost dotazy psát ve specifickém jazyce není samozřejmostí zejména u kolegů, kteří teprve v kybernetické bezpečnosti začínají nebo jsou již zkušení, ale neznají zrovna ten konkrétní nástroj, který daná organizace používá. A proto možnost nechat si dané „query“ napsat pomocí AI opět šetří čas a zároveň i učí, protože zadání musí vždy dát člověk a AI vygeneruje odpověď. Ta je samozřejmé dále upravitelná dle potřeb (viz obr. níže), kde zadáním bylo spočítat průměr špatných přihlášení (logon failed) a zobrazit pouze ty uživatelské účty, které mají tento počet chybných přihlášení nad průměrem.
Závěr
Budoucnost IT, kybernetickou či informační bezpečnost nevyjímaje, leží v AI. Generativní umělá inteligence, velké, malé či specifické jazykové modely budou neoddělitelnou součástí produktů, a měnit se tím pádem bude to, k čemu a jak bezpečnostní technologie používáme. V zájmu rychlosti reakce budou přibývat autonomní řešení, která se více či méně budou začleňovat do automatizačních playbooků, jaké známe např. pod zkratkou SOAR. Jestli ale je a bude něco výzvou, tak je to adopce nejmodernějších obranných technologií a postupů a opuštění přežitých modelů zabezpečení. Protože útočník nečeká.
Tato e-mailová adresa je chráněna před spamboty. Pro její zobrazení musíte mít povolen Javascript.
