Přesto zaměstnanci pokračují: 60 % sahá po volně dostupných nástrojích, 28 % říká, že by AI používali i při zákazu. A i když 68 % pravidelně nachází chyby, 82 % výstupům věří; většina hlásí úsporu času, kdy se navíc ještě ušetřený čas vrací zpět do práce. Tady nejde o hype. Jde o tichý, vytrvalý posun v tom, jak se dělá práce. A posun je rychlejší než pravidla, která se ho snaží korigovat.
Málokdy je ale něco rovnoměrné. Většina čísel níže stojí na amerických průzkumech (EisnerAmper, Pew), ale podobné generační rozdíly lze čekat i ve střední Evropě, byť možná s menší penetrací a pomalejším nasazením v těch největších firmách.
ChatGPT dnes používá 34 % dospělých Američanů, ale mezi lidmi do 30 let už jde o většinu (58 %), zatímco u 65+ jen 10 %. Vyšší adopci vidíme u lépe vzdělaných. Zkušenost zaměstnanců se přitom láme podle kontextu: v onboardingu převládá pozitivní sentiment (92 % u těch, kteří AI při nástupu zažili), naopak u performance review se reakce polarizují a u starších kohort více převažuje negativní vnímání.
Reality check
Zaměstnanci jsou rychlejší než politika. Z těch, kdo AI v práci používají, jen 22 % říká, že je firma aktivně monitoruje, a 36 % uvádí, že existuje formální politika. Přitom 60 % používá volně dostupné platformy; 24 % interní nástroje; 43 % externí placené nástroje poskytované firmou (mnozí kombinují více možností). Jen zhruba 41 % lidí říká nebo se ptá svého manažera, zda mohou AI použít, i když cca 84 % manažerů připouští, že se v jejich týmech AI nějak používá.
Sebedůvěra vs. kvalita. Přibližně 68 % zaměstnanců říká, že v AI výstupech pravidelně nachází chyby. Zároveň 82 % věří, že technologie dokáže doručit přesné a uspokojivé výsledky, a 80 % hodnotí celkovou zkušenost s AI v práci jako pozitivní. Většina uvádí úsporu času; 64 % ušetřený čas investuje do další práce (menší část do přestávek, odpočinku, krátké procházky).
Paradox vysokého využití + nízkého dohledu + proměnlivé kvality vytváří dnešní rizikový profil pro HR: úniky dat, porušení politik a otázky férovosti - vedle reálných produktivních zisků.
Shadow AI je racionální chování ve vakuu. Když nejsou jasná pravidla ani bezpečně dostupné nástroje, lidé sahají po tom, co mají po ruce. To, že 28 % by AI používalo i při zákazu, je jasný signál: zákazy samy o sobě nesnižují použití, jen ho přesouvají do stínu.
Adopce a sentiment podle generací a vzdělání
Věk je nejsilnější prediktor. V roce 2025 má zkušenost s ChatGPT 34 % dospělých; v kohortě <30 let 58 %, u 30–49 let 41 %, u 50–64 let 25 % a u 65+ jen 10 %. Podobně u povědomí: většina dospělých „něco“ slyšela, ale mladší výrazně častěji říkají „hodně“.
Pracovní využití roste a je stratifikované. Podíl zaměstnaných, kteří používají ChatGPT v práci, vzrostl z ~8 % na začátku 2023 na ~28 % dnes. Tahounem jsou mladší: ~38 % zaměstnaných 18–29 let, ~30 % u 30–49, ~18 % u 50+.
Vzdělání multiplikuje adopci. Zhruba polovina lidí s bakalářským (~51 %) či postgraduálním (~52 %) vzděláním má zkušenost s ChatGPT celkově. V práci jej používá ~45 % zaměstnaných s postgraduálem, ~36 % s bakalářem, ~25 % s částí VŠ a ~17 % s maturitou či nižším vzděláním.
Sentiment se láme podle kohort. Mezi uživateli AI v práci říká ~59 % lidí ve věku 18–34, že je AI dělá šťastnějšími, oproti ~29 % u 55+. Podobně produktivita: ~84 % ve věku 18–34 se cítí s AI produktivnější. Komfort s AI v performance review je opět generační: ~45 % ve věku 18–34 by zapojení AI vnímalo jako plus vs. ~10 % u 55+, kde ~50 % říká, že by to bylo spíše negativní.
Trénink zaostává za používáním. Jen ~31 % pracovníků uvádí, že má přístup k AI tréninku, přestože AI v práci používá podstatně více lidí. Tím se prohlubují generační a vzdělanostní rozdíly - a řízení rizik se nechává na náhodě.
Impikace pro HR: Enablement nemůže být ve formě jedné univerzální šablony pro všechny. Mladší a vysokoškolsky vzdělané skupiny půjdou dopředu samy a budou testovat hranice; starší kohorty se mohou odpojovat nebo bránit, pokud trénink není praktický, kontextový a citlivý k obavám o férovost a nahrazování lidí.
Employee experience a důvěra: kde AI pomáhá a kde může bolet
Onboarding je světlé místo. Jen asi pětina zaměstnanců říká, že jejich onboarding využil AI - ale z těch, kdo to zažili, 92 % hodnotí dopad na vztah k firmě pozitivně. AI tady vyniká v konzistentním, dostupném průvodci „na vyžádání“, v rychlých odpovědích na otázky k benefitům a pravidlům a v personalizovaných „nudges“ pro učení. V bezpečném prostoru, kde je člověk stále nablízku.
Performance review je třecí plocha. Na otázku, zda by zapojení AI do hodnocení výkonu zlepšilo či zhoršilo jejich vztah k firmě, odpovědi se dělí třetina–třetina–třetina. Starší kohorty spíše negativně, mladší spíše pozitivně. Lekce není „AI nikdy ne“, ale transparentně vysvětlit roli, udržet odpovědnost u lidí a nedopustit, aby modely rozhodovaly — nebo působily dojmem, že rozhodují — o finálním hodnocení.
Obavy o práci jsou široké. Asi 52 % uživatelů AI je „poněkud“ či „velmi“ znepokojeno možným nahrazením či zásadní změnou role, přičemž vyšší obavy vidíme v odvětvích jako velkoobchod či média/komunikace. Zároveň ~74 % říká, že by se zkušenost s AI měla uznávat či odměňovat — to je šance pro HR rámovat upskilling jako kariérní aktivum, ne hrozbu.
Minimum omezení & jednoduchá aktivace
Smyslem není přibrzdit to dobré. Smyslem je ochránit férovost, data a značku, a přitom zachovat (a ideálně znásobit) užitečné přínosy. Následující minimum zvládnete zavést rychle a udělá největší rozdíl.
Nástroje
- Preferujte enterprise řešení před veřejnými/free aplikacemi. Firemní verze nabízejí smluvní záruky (DPA), auditovatelnost, správu identit a lepší kontrolu nad daty a jejich rezidencí. Zároveň umožňují granularitu oprávnění a rychlé odpojení uživatele při odchodu, což je u bezplatných nástrojů často nemožné.
- Vytvořte a průběžně aktualizujte schválený seznam nástrojů a přístup k nim udělejte snadný (SSO, jasné licence, správa přístupů). Seznam uložte na jedno viditelné místo (např. intranet) a přidejte krátké „kdy použít/kdy ne“ karty. Každý kvartál proveďte rychlý vendor-review a zrušte přístupy k nástrojům, které se reálně nepoužívají.
- Vysvětlete „k čemu který nástroj“: texty, datové analýzy, generování nápadů, překlady, kód — a u každého jasně, co nesmí. Lidé potřebují mapu use-casů, ne jen seznam produktů. Přidejte příklady dobré praxe a červené linie (např. „žádné neveřejné finanční výsledky do generativních modelů bez konektorů“).
Data
- Žádná PII/citlivá data do neprověřených nástrojů. Pojmenujte, co přesně je PII u vás (např. rodná čísla, mzdová data, zdravotní omezení, náborové poznámky). Upozorněte, že i screenshot nebo export z interního systému je stále práce s citlivými daty.
- Zaveďte redakci/maskování a bezpečné konektory; ujasněte vlastnictví IP a zákaz nahrávání do osobních účtů. U standardních scénářů (analýza textu, sumarizace) dejte šablony, jak údaje maskovat nebo syntetizovat. V podmínkách práce jasně uveďte, že veškeré výstupy vytvářené s AI jsou firemní IP a nesmí být ukládány mimo firemní prostředí.
- Vysvětlete jednoduché vzory promptů pro bezpečné sdílení kontextu (syntetické příklady, pseudo-data). Ukažte, jak vytvořit „bezpečný“ prompt s nahrazením identifikátorů (namísto Jana použijte raději [KANDIDÁT_1]). Přidejte i kontra-příklady, aby bylo zřejmé, co už je za hranou.
HITL (Human-in-the-Loop)
- U náboru, hodnocení, odměňování a ukončení vyžadujte dokumentovaný lidský přezkum a podpis. Vytvořte jednoduchý checklist, který recenzent vyplní (co AI navrhla, co člověk změnil a proč). Uchovávejte tyto záznamy pro případ auditu nebo stížnosti.
- AI pomáhá (shrnuje, navrhuje, kontroluje konzistenci), ale nerozhoduje. U všech rozhodovacích procesů musí být zřejmé, kdo je odpovědný člověk a kde lze jeho rozhodnutí eskalovat. Zaveďte pravidlo „AI může doporučit, člověk musí zdůvodnit“.
Férovost & logy
- Aktivujte auditní logy a pravidelný review. Logy musí zachytit, kdo, kdy a k jakému účelu nástroj použil; u textových modelů uložte i použité prompty, pokud to je možné a přiměřené. Minimálně kvartálně proveďte kontrolu vzorku případů.
- Před nasazením a po něm kontrolujte validitu a signály adverse impact podle chráněných charakteristik. U rizikovějších use-casů (screening, předvýběr) otestujte, zda nedochází ke znevýhodnění určitých skupin. Průběžně sledujte metriky a při odchylkách zaveďte mitigace (úprava pravidel, další lidský přezkum).
- Od dodavatelů požadujte attestace k biasu a bezpečnosti; ověřujte setrvale, nejen na startu. Attestace vnímejte jako výchozí bod, nikoli záruku. Nastavte si každoroční re-certifikaci dodavatelů a proces hlášení incidentů.
Transparentnost
- Zveřejněte, kde v HR AI používáte (např. „AI pomáhá třídit Q&A v onboardingu“) a u každého procesu uveďte, jak se dostat k člověku. Transparentnost snižuje obavy a zvyšuje důvěru v procesy. U každého dotčeného kroku přidejte jasný kontakt na zodpovědnou osobu.
- Založte incident path pro chyby AI nebo expozici dat a jasně ji komunikujte. Popište, co má zaměstnanec dělat, když si není jistý výsledkem AI, a jak bezpečně nahlásit potenciální únik. Zajistěte, aby incidenty vedly k učení a zlepšení, ne k trestání.
Proč na tom záleží: Právo i regulátoři se dívají stále pozorněji na automatizované rozhodování v talent procesech (např. žaloby týkající se věkové diskriminace při screeningu). Bez ohledu na tvrzení vendorů nese odpovědnost zaměstnavatel. Za job-relatedness, konzistenci a nediskriminaci.
Co měřit (4 KPI, které drží kompas)
- Adopce: aktivní uživatelé, poměr neschválené × schválené nástroje, trend v čase. Sledujte, zda se „shadow AI“ přesouvá do schválených kanálů. Vytvořte cílový podíl schváleného používání a každý měsíc reportujte progres.
- Kvalita/čas: quality-pass rate (např. bez zásadních oprav), zkrácení cycle time (čas tvorby JD, odpovědi na HR dotaz, doba nástupu). Měřte před a po nasazení a udržujte kontrolní vzorky bez AI. Kde kvalita klesá, přidejte HITL nebo změňte nástroj.
- Důvěra: sentiment podle kohort (věk/úroveň/útvar), počet escalations-to-human. Krátké pulzní dotazníky po interakci s AI odhalí, kde lidé tápou. Vysoká míra eskalací je signál k lepšímu tréninku nebo jasnějším pravidlům.
- Riziko: indikátory adverse impact, úplnost audit-logů, stav vendor attestací a mitigací. Sledujte triggery (stížnosti, právní dotazy) a reagujte pravidelným review. U vysoce citlivých procesů nastavte nižší prahové hodnoty pro zásah.
Rychlá aktivace
- Onboarding copilot (low-risk): interní Q&A nad manuálem, benefity, IT základ; tlačítko „zeptat se člověka“. Začněte s omezeným, dobře kurátorovaným korpusem a postupně přidávejte témata. Každá odpověď musí mít zdroj a možnost plynule přejít na chat s HR.
- Policy-aware Q&A pro manažery: zhuštěné odpovědi s citací interní politiky (home office, cestovní náklady, přesčasy). Manažeři potřebují rychlá a přesná stanoviska; AI jim je zpřístupní v kontextu. Přidejte odkaz na plné znění politiky a možnost „pošli mi shrnutí do e-mailu“.
- Hygiena náboru: anonymizace CV, sjednocení JD, generování strukturovaných otázek; lidský finální úsudek. Tím snížíte šum a zvýšíte srovnatelnost kandidátů. AI pomůže s konzistencí, ale rozhodnutí a interpretace zůstávají na lidech.
- „Druhý pár očí“ u performance: kontrola konzistence proti kritériím, detekce předsudků v textu hodnocení; rozhoduje manažer. Model upozorní na neurčité formulace či potenciálně zaujaté výroky. Manažer musí změny potvrdit a případně doplnit důkazy.
- Mikro-tréninky pro persony: Krátké, role-based moduly (15–20 min) mají vyšší míru dokončení než jednorázové školení. Každý modul uzavřete praktickým checklistem a „co dělat příště“.
- Manažeři: kdy AI použít, rizika, eskalace. Zaměřte se na rychlé rozhodovací stromy (použít/nepoužít/eskalovat) a příklady z praxe týmu. Přidejte scénáře, jak mluvit o roli AI s členy týmu.
- HRBP: guardrails, audit, dokumentace. Vysvětlete, jak vést záznamy pro audit a jak číst metriky adverse impact. Dejte šablony pro HITL review a postupy při incidentu.
- Zaměstnanci: bezpečné promptování, práce s citlivými daty, „co dělat/nedělat“. Naučte vzory bezpečných promptů a typické pasti (halucinace, konfabulace, citlivé údaje). Přidejte jednoduchý checklist před odesláním promptu.
Data na prvním místě, potom plány
Data mluví jasně. Zaměstnanci už AI používají. Napříč generacemi i vzděláním, s důvěrou, která často předbíhá kvalitu, daleko před governance a někteří nejspíš i bez ohledu na firemní politiku. Úkolem HR je přijmout fakta a nastavit alespoň minimum standardů, které ochrání férovost a data, a zároveň zachovají (a posílí) produktivní přínosy, které lidé reálně prožívají.
Začněte viditelností a základními kontrolami, naučte lidi pár kritických dovedností a průběžně měřte adopci, kvalitu, důvěru a riziko. Zbytek je iterace.
A hlavně: držte se dat, ale nenechte se jimi svázat. Vytvořte bezpečný prostor, kde se mohou týmy učit a zkoušet nové postupy, s jasnými pravidly a lidskou oporou. Tím budujete značku, která je pečující, inspirativní a inovativní. A která skutečně zlepšuje každodenní život lidí ve firmě.
Zdroje:
https://www.hrdive.com/news/ai-multigenerational-workforce-learning-curve/758695/
Shrnutí článku
Zaměstnanci napříč organizacemi již masivně využívají nástroje umělé inteligence, často bez vědomí a oficiálních pravidel zaměstnavatele. Tento trend, známý jako "shadow AI", přináší zisky v produktivitě, ale zároveň vytváří vážná rizika v podobě úniků dat, porušování interních politik a otázek férovosti, protože rychlost adopce výrazně předbíhá zavedení řídicích mechanismů.
- Adopci AI silně ovlivňuje věk a vzdělání; mladší a vzdělanější zaměstnanci technologii přijímají rychleji a s větším nadšením.
- Většina uživatelů výstupům AI věří, i když v nich pravidelně nachází chyby, a značná část by ji používala i navzdory přímému zákazu.
- Článek doporučuje, aby HR oddělení nezakazovala AI, ale aktivně ji řídila zavedením schválených nástrojů, jasných pravidel a školení pro bezpečné používání.
- Procesy jako onboarding představují bezpečnou příležitost pro zavedení AI, zatímco hodnocení výkonu vyžaduje striktní lidský dohled, aby se předešlo nedůvěře.