Technologie

Víte, proč vaše AI vyhodila kandidáta? Už brzo to budete muset umět doložit

Adam Homola

: 6. 1. 2026

4 min

Obsah článku

  1. 1.EU AI Act v plné síle
  2. 2.Od efektivity k odpovědnosti: Proč C-level mění priority
  3. 3.XAI (Explainable AI): Klíč k přežití v boardu
  4. 4.Strategická daň za Black Box systémy
  5. 5.Framework pro audit
  6. 6.Závěr

Přihlašení k newsletteru

Ať vám neunikne nic z oblasti HR, zdraví a benefitů.

Éra černých skříněk pomalu končí, štafetu přebírá algoritmická auditovatelnost. Boardy firem už nezajímá jen to, kolik času ušetřil náborový algoritmus, ale především to, jaké riziko pro firmu představuje. Pokud jako HR leader nebo člen C-levelu nedokážete vysvětlit, proč váš systém vyřadil 40 % kandidátů nebo proč predikoval odchod klíčového zaměstnance, stojíte na velmi tenkém ledě. Vítejte v éře algoritmické auditovatelnosti.

EU AI Act v plné síle

Od 2. srpna 2026 nabývají účinnosti povinnosti pro vysokorizikové AI systémy podle Přílohy III (Annex III). Podle Nařízení Evropského parlamentu a Rady (EU) 2024/1689 (EU AI Act) sem patří spousta nástrojů používaných v HR: od náboru, přes hodnocení výkonu až po přidělování úkolů.

Článek 99 (Sankce): EU AI Act zavádí odstupňovaný systém pokut. Nejvyšší sankce, až 35 000 000 EUR nebo 7 % celkového celosvětového ročního obratu, se vztahují na porušení zakázaných praktik podle Článku 5 (např. sociální scoring, manipulativní AI). Pro nesplnění povinností u vysokorizikových systémů (včetně HR nástrojů) platí pokuta až 15 000 000 EUR nebo 3 % obratu. I tato nižší hranice představuje pro středně velkou firmu existenční hrozbu.

Transparentnost (Článek 13): Vysokorizikové AI systémy musí být navrženy tak, aby jejich provoz byl dostatečně transparentní a umožnil deployerům (firmám, které systém nasazují) interpretovat výstupy systému a používat je přiměřeně. Pokud váš dodavatel tvrdí, že jeho algoritmus je obchodní tajemství, které nelze vysvětlit, v roce 2026 je pro vás tento nástroj jen stěží použitelný.

Od efektivity k odpovědnosti: Proč C-level mění priority

Dosud se investice do HR technologií posuzovaly skrze ROI (návratnost investic) založenou na úspoře času (FTE). To je v roce 2026 přežité. Novou metrikou je Cost of Non-Compliance a Algorithmic Integrity.

Pro CEO a CFO už není AI v HR jen hračkou pro personalisty. Je to stejné operační riziko jako kybernetická bezpečnost. Pokud algoritmus vykazuje předpojatost, firma čelí nejen právním sporům, ale i masivní ztrátě reputace.

Studie a výzkumy ukazují, že neauditované systémy mohou skrytě diskriminovat na základě proxy dat. Například algoritmus vyřazuje kandidáty podle poštovního směrovacího čísla, což nevědomky koreluje se socioekonomickým statusem nebo etnikem.

XAI (Explainable AI): Klíč k přežití v boardu

HR lídři se musí naučit nový termín: XAI (Vysvětlitelná umělá inteligence). Je to rozdíl mezi Black Box (něco se stalo) a Glass Box (víme přesně, proč se to stalo).

V praxi to znamená, že se obecně doporučuje, aby každý výstup z HR systému měl přiložen tzv. Feature Importance Report.

Příklad: Pokud AI doporučí povýšení zaměstnance A místo zaměstnance B, musíte být schopni doložit, že roli hrála doba strávená na projektech (váha 40 %), získané certifikace (30 %) a přesah kompetencí (30 %), a nikoliv parametry, které zákon zakazuje sledovat.

Bez schopnosti auditovat tyto váhy se HR stává pro C-level neřízenou střelou. C-level potřebuje jistotu, že rozhodnutí firmy jsou podložená a obhajitelná před akcionáři i regulátory.

Strategická daň za Black Box systémy

Mnoho firem v letech 2024 a 2025 nakoupilo levná či trendy AI řešení, která slibovala zázraky. V roce 2026 se tyto systémy stávají toxickým aktivem.

Technický dluh: Přechod na auditovatelné systémy bude stát peníze a čas.

Ztráta důvěry: Zaměstnanci, kteří vědí, že jsou hodnoceni neprůhledným strojem, vykazují o 25 % nižší angažovanost a vyšší míru tiché fluktuace (Quiet Quitting), protože systém vnímají jako nespravedlivý.

Framework pro audit

Pokud nechcete v srpnu 2026 hasit požáry, musíte jednat hned. Tady je 5 kroků, které by měly být na programu příštího boardu:

Krok 1: Inventura algoritmického portfolia

Vytvořte registr všech automatizovaných rozhodovacích procesů. Nejde jen o velká jména jako Workday nebo SAP. Jde i o malé pluginy v prohlížeči, které vaši náboráři používají k vylepšení sourcingu.

Krok 2: Prověření dodavatelů a standardů

Zvažte, zda vaši dodavatelé disponují certifikací podle normy ISO/IEC 42001 (AI Management System). Tato norma představuje první mezinárodní standard pro řízení AI a poskytuje rámec pro etické a transparentní řízení AI systémů. Ačkoliv certifikace není přímým požadavkem EU AI Act, může sloužit jako důkaz due diligence a systematického přístupu k řízení rizik.

Krok 3: Posouzení dopadu na základní práva (FRIA)

Podle Článku 27 EU AI Act musí veřejné instituce a soukromé subjekty poskytující veřejné služby provést posouzení dopadu na základní práva (Fundamental Rights Impact Assessment – FRIA) před nasazením vysokorizikových AI systémů.

Pozor: Tato povinnost se nevztahuje na všechny soukromé firmy - pouze na ty, které poskytují veřejné služby (např. vzdělávání, zdravotnictví, sociální služby). Pro ostatní soukromé firmy je FRIA doporučenou best practice, nikoliv zákonnou povinností. Bez ohledu na to, zda FRIA provádíte povinně či dobrovolně, jde o cenný nástroj pro identifikaci rizik a zajištění souladu s principy rovných příležitostí.

Krok 4: Implementace lidského dohledu (Human-in-the-Loop)

Algoritmus nesmí v HR rozhodovat zcela autonomně. Musí existovat definovaný proces lidského přezkumu. To vyplývá jak z požadavků EU AI Act na human oversight u vysokorizikových systémů (Článek 14), tak z Článku 22 GDPR, který zakotvuje právo nebýt předmětem rozhodnutí založeného výhradně na automatizovaném zpracování, pokud má právní nebo obdobně významné účinky.

V praxi to znamená, že u rozhodnutí, která jsou výhradně automatizovaná a mají významný dopad, GDPR typicky vyžaduje záruky typu lidského zásahu a možnosti rozhodnutí napadnout. Máte na to v HR lidi a procesy?

Krok 5: Pravidelné stress-testy na předpojatost

Minimálně jednou za kvartál nechte otestovat své systémy na syntetických datech. Změnila se váha parametrů? Začal systém upřednostňovat určitou skupinu? Tyto audity musí být dokumentovány pro případnou kontrolu ze strany dozorových úřadů.

Závěr

V roce 2026 se role HR definitivně mění. Už nejste jen těmi, kdo dodávají lidi. Jste těmi, kdo garantuje, že procesy firmy jsou spravedlivé, legální a technologicky podložené.

Auditovatelnost není technický detail. Je to základní stavební kámen moderního governance. Pro C-level je to investice do bezpečnosti firmy. Pro HR je to příležitost stát se skutečně strategickým partnerem, který nerozumí jen psychologii, ale i etice a logice technologií, které firmu pohánějí.

Shrnutí článku

V roce 2026 končí éra slepé důvěry v náborové algoritmy; nastupuje éra „algoritmické auditovatelnosti“. Pod tlakem EU AI Actu, který od srpna 2026 zavádí drakonické pokuty za netransparentní systémy, se pozornost vedení firem přesouvá od prosté úspory času k řízení právních a reputačních rizik. Pokud HR lídři nedokážou vysvětlit (XAI), na základě čeho AI systém rozhoduje, stává se z takové technologie toxické aktivum, které ohrožuje byznys i důvěru zaměstnanců.

  • Právní deadline: Od 2. srpna 2026 hrozí za netransparentní HR systémy pokuty až 15 milionů EUR nebo 3 % obratu.
  • Konec černých skříněk: Firmy musí přejít na „Glass Box“ řešení (XAI), která ke každému rozhodnutí dodají jasný výčet rozhodovacích parametrů.
  • Nová metrika úspěchu: Místo ušetřených hodin (ROI) se sleduje integrita algoritmu a náklady na soulad s předpisy (Cost of Non-Compliance).
  • Lidský dohled (Human-in-the-loop): Podle GDPR a AI Actu nesmí o lidech v HR rozhodovat stroj zcela sám; je nutná jasná procesní stopa lidského přezkumu.
  • Strategická doporučení: Boardy musí okamžitě provést inventuru AI nástrojů, prověřit certifikace dodavatelů (např. ISO 42001) a pravidelně testovat systémy na skrytou předpojatost.

Adam Homola

Editor in chief, Benefit pro HR

Adama dlouhodobě fascinuje, jak věci fungují - lidé, týmy i celé organizace. Svůj zájem o lidské procesy propojuje s technologiemi, zejména s AI, kterou vnímá jako nástroj. Píše, edituje a kurátorsky vybírá obsah opřený o data a evidence-based přístup; jeho cílem je srozumitelně převádět komplexní témata do praxe HR a managementu. Dlouhodobě se věnuje digitální tvorbě a se zaujetím sleduje, jak technologický pokrok ovlivňuje práci i životy lidí.

Sdílejte článek

Přihlašte se k našemu newsletteru

Přinášíme pro vás novinky ze světa HR. Nenechte si nic ujít.

Mohlo by vás taky zajímat

Poly-working: Proč ti nejlepší sedí na více židlích (a jak to využít)

: 20. 1. 2026

4 min

Zaměstnanci

AI paradox: Ženy čelí 3× vyššímu riziku automatizace, k umělé inteligenci si ale hledají cestu pomaleji

: 20. 1. 2026

14 min

Technologie

Firemní stravování jako nástroj k vyšší produktivitě

: 13. 1. 2026

7 min

Zdraví

Kvalita vzduchu na pracovišti: klíč k zdraví a výkonu zaměstnanců

: 13. 1. 2026

9 min

Zdraví

Pozor na vysychající pipeline: Víte, kdo vás povede, až vyhoří poslední srdcaři?

: 7. 1. 2026

5 min

Zaměstnanci

2026: Rok, kdy se flexibilita a transparentnost staly novým standardem péče

: 6. 1. 2026

5 min

Legislativa