Nie wrzucaj umowy do Chata GPT
Ekspert: Bartosz Łyskawiński, CEO, Umowy.AI
Od 2023 r. gwałtownie wzrosło zainteresowanie modelami językowymi LLM. Doskonale radzą sobie ze streszczaniem i przeszukiwaniem tekstu, ale w 2025 r. wciąż mają istotne ograniczenia: słabe rozumienie liczb i zależności prawnych, brak gwarancji jakości oraz ryzyka związane z danymi wrażliwymi. To raczej nie jest coś, czego oczekujesz od narzędzia dla swojej firmy, prawda?
Dlaczego ChatGPT nie zastąpi prawnika – i gdzie leżą realne ryzyka
Czego ChatGPT nie zrobi za prawnika? Po pierwsze, nie zagłębi się w semantykę przepisów ani nie powiąże artykułów z orzecznictwem, KIO czy praktyką branżową. Zasugeruje kierunki, ale nie „dowiezie” odpowiedzialności. Co więcej, modele potrafią wygenerować odpowiedź z pełnym przekonaniem nawet wtedy, gdy jest ona merytorycznie błędna lub nieaktualna. Nie zapewniają też powtarzalności – ten sam prompt potrafi dziś dostarczyć inne wnioski niż wczoraj. Znajome kancelarie mają dziś ręce pełne roboty – prostują sprawy po poradach z „Szatana GPT”.
Drugim problemem są dane. W testach rynkowych widziałem przypadki, w których czaty odtwarzały fragmenty realnych informacji. Dostawcy dużych modeli językowych (OpenAI, Google, Anthropic) deklarują wysoki poziom bezpieczeństwa, jednak zapisy umów i praktyka ich stosowania potrafią się znacząco różnić. W naszych eksperymentach (marzec–kwiecień 2025) zaobserwowaliśmy, że jeden z modeli czołowych firm „uczył się” na serii identycznych zapytań. Po pewnym czasie uznał je za naruszające prawa autorskie, mimo że materiał był całkowicie sztucznie wygenerowany. To sugeruje, że treści mogły zostać zapisane i wykorzystane w procesie uczenia. Pytanie dla zarządów jest proste: czy chcecie, by cudzy model uczył się na Waszych umowach i know-how, a ryzyko reputacyjne było po Waszej stronie?
Compliance i bezpieczeństwo danych: gdzie kończy się eksperyment, a zaczyna odpowiedzialność
Trzeci aspekt to zgodność (compliance). AI Act, RODO, wewnętrzne standardy klientów jasno określają odpowiedzialność za bezpieczeństwo danych – w razie naruszeń odpowiada firma przesyłająca dane, a nie dostawca czatu. Wrzucenie umowy do ogólnego narzędzia może okazać się ryzykowną „oszczędnością”: przy tworzeniu dokumentu zaoszczędzisz kilka złotych, ale w konsekwencji możesz zapłacić dziesiątki tysięcy na obsługę prawną.
Czy na tym etapie porzucać więc wykorzystanie AI w prawie? Co zastosować w zamian? UMOWY.AI. Zamknięte, mierzalne procesy anonimizacji/pseudonimizacji przed obróbką, przetwarzanie w EOG, brak udostępniania danych do trenowania modeli, pełne logi i kontrola wersji, wielokrotna walidacja „na końcu taśmy”. Do tego modele – wyspecjalizowane w prawie, z warstwą reguł pilnującą spójności wniosków, oraz nasza, aktualizowana codziennie, autorska baza prawa polskiego.
Tak pracujemy w Umowy AI. To my zamieniliśmy prawo w kod. Od dwóch lat rozwijamy własne parsery i metody przetwarzania danych prawnych, projektując bazę, która łączy automatyzację z bezpieczeństwem i zgodnością (AI Act, RODO). Dzięki temu dostarczamy firmom użyteczne analizy operacyjne – nie „magiczne”, lecz powtarzalne i audytowalne.
Zanim wrzucisz kolejną umowę do czatu, zadaj sobie trzy pytania
1. czy wynik będzie powtarzalny i weryfikowalny,
2. co się stanie z danymi,
3. kto odpowiada za to, że model się pomyli?
Jeśli chcesz wdrożyć AI do obiegu dokumentów bezpiecznie i pragmatycznie, sprawdź nasze materiały edukacyjne (Instagram, Facebook, LinkedIn) i wejdź na umowy.ai. Najpierw bezpieczeństwo i proces, dopiero potem „magia” AI.
A jeżeli już koniecznie chcesz wrzucić umowę do czatu z dużym modelem językowym – usuń dane osobowe i wszystkie odniesienia, na podstawie których można Cię zidentyfikować, wpisz prompt i trzymaj kciuki (mocno). A potem zweryfikuj, czy to Ty halucynujesz, czy raczej model LLM w trakcie udzielania odpowiedzi. Chyba nie tak gramy w biznes, prawda?
Przeczytaj także: Planować zmianę, nie kryzys: skuteczna sukcesja w firmach rodzinnych
Last Updated on 15 grudnia, 2025 by Katarzyna Zawadzka