AI REALITA – V HAVEL & PARTNERS se v posledních šesti měsících využívání AI výrazně zvýšilo, říká její partner Dalibor Kovář: „AI nám práci usnadňuje, ale rozhodně ji nevnímáme jako náhradu za skutečný odborný obsah a lidský úsudek.“
V posledních šesti měsících se využívání AI ve firmě výrazně zvýšilo. Veškeré aktivity kolegů soustředíme do dvou prostředí – interního AI portálu a pokročilé externí platformy pro právní práci. Tím dosahujeme dvou věcí: (i) máme přehled o využití napříč týmy a rolemi a (ii) dokážeme konzistentně uplatňovat bezpečnostní, datové a procesní standardy (včetně pravidel pro práci s citlivými informacemi a povinné lidské kontroly). Interně sledujeme například počet aktivních uživatelů, frekvenci využití a typové scénáře; detailní čísla nezveřejňujeme, ale trend je konzistentně rostoucí.
Paralelně investujeme do praktických interních školení zaměřených na konkrétní situace (rešerše, práce s podklady, strukturování argumentace, kontrola konzistence a podobně) a vedeme kolegy k tomu, aby k AI přistupovali kriticky – tedy aby ověřovali fakta, zdroje a logiku výstupů. V některých našich nástrojích je AI navíc dostupná přímo v běžných kancelářských aplikacích, takže se zvyšuje adopce bez „přepínání kontextu“, ale při zachování stejných pravidel a dohledatelnosti. Zároveň jsme náš interní AI portál doplnili o agentní schopnosti a pokročilé postupy (workflows), které zvládají řadu činností v nebývale vysoké kvalitě a pracují s textem skutečně „do hloubky“.
Pokud jde o typičnost: nárůst používání AI je dnes zřetelný v celém právním trhu, ale ne všude je doprovázen stejnou úrovní standardizace, měření, dokumentace a řízení rizik. My se dlouhodobě snažíme, aby AI zvyšovala kvalitu a efektivitu – ne aby vytvářela nová rizika.
Na sociálních sítích v poslední době určitě vnímáme vyšší citlivost vůči generovanému obsahu. Je to přirozené – vzniká velké množství textů a příspěvků, které jsou si často dost podobné, a publikum jednoduše nebaví číst, co už vidělo stokrát jinde.
Na sociálních sítích proto dáváme prostor především osobním komentářům našich kolegyň a kolegů k aktuálním tématům a jejich autentickým zkušenostem z praxe. Věříme, že právě autenticita a reálná znalost problému jsou tím, co náš obsah odlišuje od generického textu vytvořeného umělou inteligencí.
V rámci klientské práce však tuto averzi nevnímáme. Umělou inteligenci využíváme jako podpůrný nástroj – například při rešerších, práci s podklady nebo při první strukturaci textu. Finální obsah ale vždy vychází z odborné expertizy a osobních zkušeností našich kolegů. AI nám práci usnadňuje, ale rozhodně ji nevnímáme jako náhradu za skutečný odborný obsah a lidský úsudek.
Halucinace a chybovost provázejí generativní AI od začátku. Zkušenost trhu se postupně posouvá od otázky „zda se to objevuje“ k otázce „jak to řídíme“. V praxi se riziko snižuje třemi kroky: (i) jasným vymezením scénářů, kde je AI vhodná, (ii) napojením na kvalitní a kontrolované zdroje (včetně důrazu na dohledatelnost podkladů), a (iii) procesními pravidly – zejména povinnou kontrolou a odpovědností konkrétního právníka.
Pokud jde o obecnější obavy z „AI proti lidem“ nebo nekontrolované autonomie: čím více je systém autonomní a čím více může dělat nevratné kroky (odesílání, publikování, rozhodování bez kontroly), tím víc roste riziko. V právním poradenství proto dáváme přednost modelu, kde AI asistuje, ale nerozhoduje ani nejedná samostatně. Důležitá je auditovatelnost, dohledatelnost práce s podklady a jasné nastavení odpovědnosti.
Tyto debaty podle nás nástup AI spíše „zprofesionalizují“, než zastaví. Urychlí přesun od nadšení a experimentů k disciplíně: k pravidlům, standardům, bezpečnostním kontrolám a transparentnímu řízení rizik. A to je v právních službách správně – klient očekává, že technologie zvýší kvalitu a efektivitu, ale nesmí zvýšit nejistotu.