W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.
- Krajowa Izba Radców Prawnych wydała w maju 2025 r. rekomendacje dotyczące odpowiedzialnego korzystania z narzędzi AI w praktyce prawniczej
- Korzystanie ze sztucznej inteligencji przez prawnika: stan faktyczny sprawy
- Sztuczna inteligencja i ramy prawne rozstrzygnięcia
- Sąd nie zakwestionował samego użycia narzędzia AI, lecz jego wykorzystanie bez odpowiedniego nadzoru człowieka
- Znaczenie orzeczenia dla Polski
- Wyrok włoskiego sądu (choć nie mający wpływ na polską praktykę) pokazuje, że takie rekomendacje nie mają charakteru jedynie orientacyjnego, lecz powinny być traktowane jako standard zawodowy
- Wnioski praktyczne dla pełnomocników i sądów
Wyrok Sądu Pracy w Turynie z 6.9.2025 r., R.G.L. n. 1018/2025 dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Choć sąd nie zakwestionował dopuszczalności korzystania z narzędzi generatywnych, wykładnia wyroku wskazuje wyraźnie, że brak rzetelnej kontroli merytorycznej nad treściami generowanymi przez AI może zostać potraktowany jako rażące niedbalstwo procesowe i podlegać nawet procesowym sankcjom finansowym. Orzeczenie stanowi sygnał o dalekosiężnych skutkach nie tylko dla Włoch, lecz także dla praktyki zawodowej w Polsce.
Jak czytamy w publikacji: "Sąd Pracy w Turynie (Tribunale di Torino, sezione lavoro) oddalił skargę dotyczącą nakazu zapłaty (ingiunzione di pagamento), wskazując na całkowitą bezzasadność podniesionych zarzutów. Szczególne znaczenie miała jednak motywacja sądu odnosząca się do sposobu sporządzenia skargi – przygotowanej przy wsparciu sztucznej inteligencji i ograniczającej się do chaotycznego zestawu abstrakcyjnych cytatów prawnych. Zdaniem sądu takie działanie stanowiło przejaw złej wiary lub rażącego niedbalstwa procesowego, co skutkowało nałożeniem dodatkowych sankcji finansowych na podstawie art. 96 włoskiego kodeksu postępowania cywilnego. Orzeczenie to może mieć istotne znaczenie również w Polsce, zwłaszcza że Krajowa Izba Radców Prawnych wydała w maju 2025 r. rekomendacje dotyczące odpowiedzialnego korzystania z narzędzi AI w praktyce prawniczej." (zob. M. Drażbo, Wyrok w sprawie wykorzystania AI przy sporządzaniu pism procesowych, Legalis 2025).
Krajowa Izba Radców Prawnych wydała w maju 2025 r. rekomendacje dotyczące odpowiedzialnego korzystania z narzędzi AI w praktyce prawniczej
Na stronie KIRP możemy znaleźć rekomendacje dotyczące korzystania z AI. Podkreśla się, że: w obliczu dynamicznego rozwoju technologii sztucznej inteligencji, Krajowa Izba Radców Prawnych opracowała kompleksowe rekomendacje wspierające radców prawnych w bezpiecznym, etycznym i świadomym wdrażaniu narzędzi AI w praktyce zawodowej. Dokument został przygotowany przez Krajowa Izbę Radców Prawnych we współpracy z ekspertami z Microsoft Polska oraz kancelarii Sołtysiński Kawecki & Szlęzak. Dokument zawiera poniższe rekomendacje:
- REKOMENDACJA NR 1: USTALENIE, W JAKICH CELACH RADCA PRAWNY BĘDZIE WYKORZYSTYWAŁ NARZĘDZIE AI.
- REKOMENDACJA NR 2: USTALENIE, JAKIE INFORMACJE WYKORZYSTUJE NARZĘDZIE AI, JAKA JEST ICH JAKOŚĆ, JAK SĄ ONE PRZETWARZANE, W TYM JAK DZIAŁA NARZĘDZIE AI (NP. CZY JEST ROZWIĄZANIEM CHMUROWYM, CZY I JAK STOSUJE FILTROWANIE ZAWARTOŚCI WEJŚCIOWEJ I WYJŚCIOWEJ).
- REKOMENDACJA NR 3: USTALENIE WŁAŚCIWEJ UMOWY NA KORZYSTANIE Z NARZĘDZIA AI.
- REKOMENDACJA NR 4: USTALENIE, CZY I JAK ZAPEWNIANA JEST POUFNOŚĆ ZAWARTOŚCI WEJŚCIOWEJ I ZAWARTOŚCI WYJŚCIOWEJ (W TYM TAJEMNICY ZAWODOWEJ) W UMOWIE Z DOSTAWCĄ NARZĘDZIA AI.
- REKOMENDACJA NR 5: USTALENIE – W OPARCIU O POSTANOWIENIA UMOWY Z DOSTAWCĄ NARZĘDZIA AI – JAK REGULOWANE SĄ KWESTIE PRAW AUTORSKICH I JAKI TO MA WPŁYW NA WYKONYWANIE ZAWODU.
- REKOMENDACJA NR 6: USTALENIE – W OPARCIU O POSTANOWIENIA UMOWY Z DOSTAWCĄ NARZĘDZIA AI – CZY DOSTAWCA PRZEWIDUJE OBRONĘ PRZED ROSZCZENIAMI OSÓB TRZECICH DO NARZĘDZIA AI I DO ZAWARTOŚCI WYJŚCIOWEJ (OUTPUTU) W ZWIĄZKU Z UŻYWANIEM MODELI ZAWARTYCH W NARZĘDZIU AI Z TYTUŁU NARUSZEŃ PRAW WŁASNOŚCI INTELEKTUALNEJ.
- REKOMENDACJA NR 7: OCENA NARZĘDZIA AI POD KĄTEM RODO (W TYM KONIECZNOŚĆ ZAWARCIA LUB DOSTOSOWANIA UMOWY POWIERZENIA, MODYFIKACJI KLAUZULI INFORMACYJNEJ, OCENY TRANSFERÓW DANYCH POZA EOG, PRZEPROWADZENIA DPIA).
- REKOMENDACJA NR 8: USTALENIE, JAKIE ŚRODKI BEZPIECZEŃSTWA NALEŻY WDROŻYĆ/STOSOWAĆ/ SKONFIGUROWAĆ PODCZAS KORZYSTANIA Z NARZĘDZIA AI.
- Wszystkich rekomendacji jest 22 - można je znaleźć tutaj.
Korzystanie ze sztucznej inteligencji przez prawnika: stan faktyczny sprawy
Sprawa miała źródło w sprzeciwie wobec nakazu zapłaty wydanego na podstawie szeregu wezwań do zapłaty obejmujących należności publicznoprawne z lat 2018–2023 o łącznej wartości rzędu kilkunastu tysięcy euro. Strona skarżąca, reprezentowana przez pełnomocnika, zakwestionowała zasadność roszczeń, podnosząc przesłanki takie jak przedawnienie, niewłaściwe doręczenia, brak wskazania sposobu obliczenia odsetek, wady formalne dokumentów oraz twierdzenie o milczącej zgodzie na umorzenie wynikające z włoskiej ustawy. Strony pozwane przedłożyły dokumenty doręczeń oraz dowody przerywania biegu przedawnienia. Część należności była wcześniej przedmiotem oddzielnych działań windykacyjnych, które nie zostały zakwestionowane, co dodatkowo wzmocniło ich stanowisko.
Sztuczna inteligencja - Procedura korzystania z AI i inne obowiązki pracodawców 2025
Sztuczna inteligencja i ramy prawne rozstrzygnięcia
Sąd oparł rozstrzygnięcie na przepisach włoskiego kodeksu postępowania cywilnego oraz na regulacjach dotyczących dochodzeń należności publicznoprawnych. Istotne znaczenie miały przepisy określające terminy zaskarżenia wezwań do zapłaty oraz mechanizmy nadużyć procesowych. Sąd zwrócił uwagę na obowiązek terminowego podnoszenia zastrzeżeń co do treści wezwań do zapłaty oraz na istnienie jasnych mechanizmów ustawowych do ustalania odsetek od należności publicznoprawnych, których stawki są corocznie publikowane i powszechnie dostępne. Sąd oddalił skargę jako spóźnioną i merytorycznie nieuzasadnioną.
Najsilniejszy akcent w motywie wyroku położono jednak na sposób skonstruowania pisma procesowego. Dokument sporządzony przy wsparciu sztucznej inteligencji został scharakteryzowany jako chaotyczny zbiór abstrakcyjnych cytatów normatywnych i orzecznictwa pozbawiony logicznej struktury i relewancji wobec przedmiotu sporu.
Sąd uznał to za przejaw rażącego niedbalstwa procesowego, a ewentualnie także złej wiary, i na tej podstawie nałożył sankcje finansowe. Konsekwencją była konieczność uiszczenia opłat na rzecz stron przeciwnych oraz na rzecz funduszu.
Sąd nie zakwestionował samego użycia narzędzia AI, lecz jego wykorzystanie bez odpowiedniego nadzoru człowieka
Sąd nie zakwestionował samego użycia narzędzia AI, lecz jego wykorzystanie bez odpowiedniego nadzoru człowieka oraz bez selekcji, weryfikacji i uporządkowania wygenerowanych treści uczyniło pismo nie tylko nieskutecznym, ale i szkodliwym z punktu widzenia interesu procesowego strony.
Wyrok pokazuje, że odpowiedzialność za merytoryczną jakość dokumentów zawsze spoczywa na pełnomocniku, niezależnie od tego, czy sporządzenie tekstu wspierała technologia. Zawód adwokata czy radcy prawnego - to zawód zaufania publicznego, taka sytuacja nie powinna mieć więc miejsca.
Znaczenie orzeczenia dla Polski
Orzeczenie z Turynu ma wymiar sygnalizacyjny dla polskiej praktyki prawniczej. W polskim systemie prawnym istnieje szeroki katalog instrumentów pozwalających przeciwdziałać nadużyciom procesowym, w tym możliwość obciążenia strony kosztami, zastosowania sankcji oraz stosowania instytucji odpowiedzialności zawodowej pełnomocników. Wyrok włoskiego sądu pełni rolę przestrogi, że użycie narzędzi generatywnych bez rzetelnej kontroli merytorycznej oraz bez zachowania standardów etyki zawodowej może skutkować negatywnymi konsekwencjami procesowymi.
Jak już było przedstawione wyżej istotnego znaczenia nabierają w tym świetle rekomendacje krajowych samorządów zawodowych dotyczące korzystania z AI. W Polsce Krajowa Izba Radców Prawnych już w maju 2025 roku sformułowała wskazania określające obowiązki pełnomocników korzystających z narzędzi sztucznej inteligencji. Zalecenia te podkreślają pełną odpowiedzialność prawnika za treść dokumentów, konieczność zachowania tajemnicy zawodowej i ochrony danych osobowych oraz zasadę nadzoru człowieka nad AI.
Wyrok włoskiego sądu (choć nie mający wpływ na polską praktykę) pokazuje, że takie rekomendacje nie mają charakteru jedynie orientacyjnego, lecz powinny być traktowane jako standard zawodowy
Wyrok włoskiego sądu pokazuje, że takie rekomendacje nie mają charakteru jedynie orientacyjnego, lecz powinny być traktowane jako standard zawodowy, którego naruszenie może prowadzić do dotkliwych konsekwencji. Na poziomie instytucjonalnym sprawa przyczynia się do intensyfikacji dyskusji o granicach dopuszczalnego automatyzowania procesów przygotowawczych w kancelariach i sądach. Może także wpłynąć na praktykę orzeczniczą poprzez częstsze podnoszenie kwestii jakości przedstawianych pism oraz ewentualne żądania dokumentowania stopnia interwencji człowieka przy tworzeniu spornej treści.
Wnioski praktyczne dla pełnomocników i sądów
Wnioski praktyczne dla pełnomocników i sądów
- AI jako narzędzie wspierające: Sztuczna inteligencja powinna pełnić funkcję pomocniczą, przyspieszającą pracę, generującą szkice lub sugerującą argumentację, pod warunkiem że wszystkie wygenerowane treści poddane zostaną surowej weryfikacji merytorycznej przez pełnomocnika.
- Odpowiedzialność merytoryczna: Pełnomocnik ponosi pełną odpowiedzialność za jakość, spójność i rzeczowość dokumentów procesowych. Bez aktywnego nadzoru wynik pracy z AI może zostać uznany za nierzetelny.
- Zachowanie standardów etycznych i ochrony danych: Korzystając z narzędzi zewnętrznych, należy dbać o tajemnicę zawodową i przestrzegać zasad ochrony danych osobowych. Niedopilnowanie tych kwestii może rodzić odpowiedzialność dyscyplinarną i cywilną.
- Rozwijanie kompetencji AI: Prawnicy powinni podnosić swoje kompetencje technologiczne, umieć ocenić ryzyko ich zastosowania oraz stosować praktyczne metody weryfikacji wygenerowanej treści.
Podsumowanie jest takie, że wyrok Sądu Pracy w Turynie jest ważnym punktem odniesienia w debacie o roli sztucznej inteligencji w zawodach zaufania publicznego. Pokazuje, że technologia sama w sobie nie zwalnia profesjonalistów z obowiązku merytorycznego nadzoru i etycznej odpowiedzialności. Dla polskich pełnomocników orzeczenie jest przypomnieniem, że korzystanie z AI wymaga zdobywania nowych umiejętności, wdrażania procedur kontroli jakości oraz przestrzegania obowiązujących standardów zawodowych.