Co se děje v praxi
- 45 % pracovníků přiznává, že použilo zakázané AI nástroje AI
- 58 % do AI vkládalo citlivá data: klientské záznamy, finance, interní dokumenty
- 40 % by vědomě porušilo interní pravidla, aby zrychlilo práci
- Z těch, kteří sáhli po zakázaných nástrojích, to 26 % udělalo v posledním týdnu a 12 % v posledním měsíci
- 78 % už AI v práci používá (ChatGPT, Gemini, Copilot), často bez jasných instrukcí
„Zaměstnanci jsou ochotni vyměnit soulad s pravidly za pohodlí. To by mělo být budíčkem,“ říká zakladatel a CEO Anagramu Harley Sugarman, jak reportuje HR Dive. Nejde ani tak o rebelii, jako spíš o důkaz, že praxe předběhla politiku.
Proč je to problém
Nejde jen o reputaci. Jde o zákony a smlouvy: GDPR (osobní údaje), NDA (smlouvy o mlčenlivosti), v regulovaných odvětvích HIPAA/PCI DSS. Klíčová je anonymizace/pseudonymizace, nastavení, zda se data používají k tréninku modelů (opt-in/opt-out, retenční lhůty, umístění dat) a dohled nad přenosem mimo organizaci i mimo EU.
Bez jasných pravidel pak roste riziko úniků, porušení závazků a drahých incidentů. Které mohou být často na hraně dobrých úmyslů a tlaku na výkon. Ve veřejném sektoru navíc chybí kapacity na osvětu a tíha vzdělávání tak leží na firmách.
Co dělat
- Zaveďte schválené nástroje. Enterprise LLM v interním prostředí (Azure OpenAI, Google Vertex AI) s privátním přístupem, DLP a šifrováním.
- Definujte zakázané soubory dat. Co nikdy nesmí do AI: osobní údaje dle GDPR, obchodní tajemství, klientské smlouvy, neveřejné finance, zdrojové kódy (bez výjimek).
- Dejte bezpečné alternativy. Anonymizace/pseudonymizace, interní šablony promptů, schválené pluginy/konektory.
- Zapněte logování a audit. Kdo/kdy/za jakým účelem; měsíční kontroly, kvartální revize politik.
- Školte na scénářích. Shrnutí dokumentu, úpravy kódu, e-maily – ukazujte bezpečný postup i typické chyby.
Čemu se vyhnout
- Nevkládejte do veřejných modelů osobní údaje, čísla smluv, neveřejné finanční reporty, právní spory, zdravotní ani platební data.
- Netolerujte „shadow AI“. Nástroje bez schválení, bez DPA/SCC, bez jasného umístění dat.
- Nespoléhejte na jednorázové kurzy. Lepší je průběžný trénink, firemní AI ambasador/konzultant, práce se zpětnou vazbou a komunikace.
Provozní nastavení, která vás podrží
- Role-based access (minimální oprávnění), maskování dat, přednastavené „safe“ prompty.
- Incident response playbook pro AI (odhlášení, výmaz, oznámení, právní kroky).
- Jasný vlastník AI politiky (HR + IT + právo) a transparentní komunikační kanál.
Jak to celé uchopit
- Nastavte konkrétní a srozumitelná pravidla: co je dovoleno, co je zakázáno a proč; jaká data nikdy nevkládat; které nástroje jsou primárním kanálem.
- Dejte legitimní alternativy: licencované nástroje, bezpečné prostředí, „privacy-by-design“ nastavení – ať nevzniká motivace obcházet pravidla.
- Školte častěji a prakticky: místo teorie řešte typické úlohy (úprava textu, sumarizace, kód) a správnou práci s daty.
- Mějte dohled a audit jako prevenci a podporu, ne jako bič.
Efektivita se nemusí ztrácet
Průzkum Anagramu neukazuje „neukázněnost“, ale mezeru mezi produktivní realitou a firemní politikou. Lidé chtějí být rychlí a užiteční. Když jim dáte jasné mantinely, bezpečné kanály a praktické vzdělávání, snížíte rizika, a přitom si ponecháte všechny výhody, které moderní AI přináší.
Shrnutí článku
Rychlá adopce AI předběhla pravidla: téměř polovina lidí obchází firemní zákazy a víc než polovina vkládá citlivá data do neschválených nástrojů. Nejde primárně o rebelii, spíš o tlak na efektivitu a pohodlí—ale rizika jsou právní i reputační. Řešení stojí na jasných pravidlech, bezpečných firemních alternativách, dohledu a praktickém vzdělávání.
- Klíčová čísla: 45 % použilo zakázané AI, 58 % vkládalo citlivá data, 40 % by vědomě porušilo pravidla; 26 % v posledním týdnu, 12 % v posledním měsíci; 78 % už AI používá často bez instrukcí.
- Proč je to problém: GDPR, NDA, v regulovaných oborech HIPAA/PCI; klíčové je pseudonymizovat, řídit trénink (opt-in/out), retenční lhůty a umístění dat.
- Co zavést: enterprise LLM (Azure OpenAI, Vertex AI) s privátním přístupem, DLP, šifrování; jasně definovat „zakázaná“ data (osobní údaje, obchodní tajemství, smlouvy, finance, zdrojový kód).
- Procesy a kontrola: logování a audit (kdo/kdy/proč), měsíční kontroly, kvartální revize; incident-response playbook (odhlášení, výmaz, nahlášení, právní kroky).
- Jak učit: školení, bezpečné šablony promptů, schválené pluginy/konektory; AI ambasadoři a průběžná komunikace místo jednorázových kurzů.