Wprowadzenie
W ostatnich latach tempo rozwoju sztucznej inteligencji (AI) wymusiło na sądach i kancelariach prawniczych wdrożenie rozwiązań technologicznych, które jeszcze dekadę temu wydawały się futurystyczne. Według badania Thomson Reuters z 2025 r. 59 % kancelarii i 57 % działów prawnych uważa, że generatywna sztuczna inteligencja powinna znaleźć zastosowanie w ich pracy – głównie ze względu na spodziewane oszczędności czasu i wzrost wydajności. Jednocześnie obawy dotyczące dokładności, „halucynacji” modeli i nieautoryzowanej praktyki prawa sprawiają, że powstają liczne regulacje i wytyczne etyczne.
Chatboty prawne – nowe narzędzia dla obywateli i adwokatów
Na świecie powstają chatboty wspierające osoby bez prawnika oraz ułatwiające pracę adwokatów. W Kolumbii Brytyjskiej organizacja People’s Law School uruchomiła w 2024 r. czat‑bota Beagle+, który w prostym języku udziela wskazówek dotyczących codziennych problemów prawnych i kieruje użytkowników do właściwych źródeł. Zespół projektował narzędzie z myślą o potrzebach użytkowników, testował je iteracyjnie i osiągnął 99 % dokładności.
W amerykańskim stanie Alaska powstaje Alaska Virtual Assistant (AVA) – czat‑bot opracowany przez sąd stanowy we współpracy z firmą LawDroid. Korzysta on z architektury „retrieval augmented generation”, łącząc wyszukiwanie informacji z generowaniem treści. Narzędzie zapewnia cytowane odpowiedzi i sugeruje pytania pomocnicze, dzięki czemu samodzielni uczestnicy postępowania lepiej rozumieją zawiłe procedury.
Jesienią 2025 r. Amerykański Instytut Arbitrażu (AAA) udostępnił AI‑Chatbook – bezpłatną aplikację, która w czasie rzeczywistym odpowiada na pytania dotyczące procedury arbitrażowej i pomaga uczestnikom bez pełnomocnika. Dodatkowy, jasny przewodnik w formie PDF objaśnia krok po kroku, jak złożyć wniosek, uczestniczyć w rozprawie i odebrać wyrok. Ponieważ około 30 % spraw arbitrażowych w AAA dotyczy stron samodzielnie reprezentujących się, projekt ma na celu zwiększenie dostępności wymiaru sprawiedliwości.
Wirtualne rozprawy – sądy bez murów
Pandemia COVID‑19 przyspieszyła cyfryzację rozpraw. W Stanach Zjednoczonych w 2025 r. aż 80 % sądów uczestniczy w wirtualnych rozprawach, a 58 % sędziów uważa, że zdalne procedury zmniejszają liczbę nieobecności stron, co skraca czas postępowania. Badanie wykazało jednak, że jedynie 17 % sądów korzysta z generatywnej AI, a 70 % zakazuje pracownikom używania narzędzi AI do czynności sądowych.
Na Bliskim Wschodzie Abu Dhabi Judicial Department przeprowadził w pierwszej połowie 2025 r. 295 000 wirtualnych przesłuchań i obsłużył 778 712 elektronicznych wniosków, korzysta również z notariatu opartego na AI, który pobiera dane z dowodu osobistego i automatycznie sporządza akty notarialne. W Jordanii ministerstwo sprawiedliwości poinformowało, że we wrześniu 2025 r. odbyło się 10 800 zdalnych sesji sądowych, co pokazuje rosnące wykorzystanie technologii również w krajach rozwijających się.
W Zjednoczonych Emiratach Arabskich specjalne trybunały drobnych roszczeń w Dubaju już w 2017 r. umożliwiły stronom udział w rozprawie przez smartfon; jedynie sędzia przebywa w sali rozpraw wyposażonej w ekrany. Ten model inspiruje kolejne jurysdykcje do tworzenia „wirtualnych sądów” eliminujących konieczność stawiennictwa w budynku sądu.
Automatyzacja administracji sądowej i AI w zarządzaniu sprawami
Zastosowanie AI w sądach obejmuje przede wszystkim zadania administracyjne. Raport National Center for State Courts (NCSC) z 2025 r. wskazuje, że sądy używają algorytmów do wyodrębniania informacji z dokumentów, planowania wokand oraz tworzenia czat‑botów dla pracowników i stron. NCSC uruchomiło nawet „piaskownicę” AI, w której pracownicy sądów mogą bezpiecznie testować nowe narzędzia.
Przykłady ze świata pokazują szerokie zastosowanie takich technologii:
- W Argentynie asystent AI o nazwie Prometea usprawnia przetwarzanie spraw administracyjnych w sądzie prokuratorskim w Buenos Aires, zwiększając liczbę obsługiwanych spraw z 130 do 490 miesięcznie,
- Egipt w 2024 r. wdrożył automatyczną transkrypcję posiedzeń, co przyspieszyło prowadzenie rozpraw i ich archiwizację,
- W Chinach inteligentne systemy 206 i Xiao Baogong analizują fakty, standaryzują weryfikację dowodów i proponują zakresy kar, redukując czas przygotowywania wyroków o 50 %, a całej dokumentacji proceduralnej o 90 %. Sąd Najwyższy zapowiedział, że do końca 2025 r. wszystkie sądy będą korzystać z narzędzi AI, choć ciągle podkreśla się potrzebę zachowania ludzkiej dyskrecji i kontrolowanego wdrażania,
- Estonia modernizuje wymiar sprawiedliwości poprzez zintegrowany system cyfrowych akt sądowych, dzięki czemu policja, prokuratura i obrońcy mają jednoczesny dostęp do informacji. Plan zakłada pełną cyfryzację sądów do końca 2025 r., a sądy korzystają z narzędzi automatycznego anonimizowania danych i transkrypcji rozpraw.
Brazylia – najbardziej zaawansowana jurysdykcja w użyciu AI
Brazylia jest globalnym liderem w wykorzystywaniu AI w sądownictwie. W 2023 r. 62 sądów wdrażało projekty AI, co stanowi wzrost o 17 % rok do roku. Narzędzia te klasyfikują dokumenty, indeksują sprawy i monitorują postępy, pomagając opanować ogromny napływ spraw – w Brazylii to około 76 mln postępowań.
Najbardziej znany projekt to system VICTOR w Sądzie Najwyższym, który analizuje odwołania nadzwyczajne pod kątem zgodności z konstytucyjnymi kryteriami dopuszczalności; wykorzystuje do tego przetwarzanie języka naturalnego. W grudniu 2024 r. wdrożono narzędzie MarIA, które generuje projekty decyzji dla sędziów – urzędnicy sądowi weryfikują je przed podpisaniem. Choć systemy te przyspieszają pracę sądów, pojawia się także problem „błędnych” decyzji; w 2024 r. jeden z sędziów podpisał wyrok przygotowany z pomocą ChatGPT, zawierający fałszywe dane i fikcyjne orzecznictwo, co spowodowało wszczęcie postępowania dyscyplinarnego.
Brazylijski organ administracji sądowej (CNJ) wydał w marcu 2025 r. Rezolucję nr 615/2025, która wprowadza matrycę ryzyka i kategoryzuje systemy AI jako nisko‑, wysoko‑ i ponadprzeciętnie ryzykowne. Narzędzia wspierające administrowanie sprawami, transkrypcję lub anonimizację dokumentów uznano za niskiego ryzyka pod warunkiem nadzoru człowieka. Systemy oceniające dowody, analizujące wzorce zachowań czy proponujące wyroki uznano za wysokiego ryzyka i wymagają one audytów, oceny wpływu oraz zapewnienia wyjaśnialności modeli. Rozwiązania uznane za nadmiernie ryzykowne – np. takie, które nie pozwalają na weryfikację danych lub klasyfikują osoby według cech osobowych w celu przewidywania przestępczości – są zabronione. Rezolucja nakazuje dodatkowe zabezpieczenia przy wykorzystaniu generatywnej AI, w tym obowiązek szkolenia użytkowników.
Paradoksalnie, masowe zastosowanie AI w Brazylii prowadzi do wzrostu liczby pozwów, bo również prawnicy korzystają z generatywnej AI do szybkiego przygotowywania pism. Według raportu Rest of World w 2024 r. w brazylijskich sądach funkcjonowało ponad 140 projektów AI, a obserwatorzy zauważyli, że zamiast zmniejszać liczbę spraw, technologia sprzyja „błędnemu kołu” polegającemu na szybkim zamykaniu i równie szybkim otwieraniu nowych postępowań.
Wytyczne i regulacje – odpowiedzialne użycie AI
Wytyczne UNESCO
W grudniu 2025 r. UNESCO przedstawiło Guidelines for the Use of AI Systems in Courts and Tribunals. Dokument zawiera 15 zasad dotyczących bezpieczeństwa informacji, audytowalności i nadzoru człowieka, stanowi punkt odniesienia dla krajowych regulacji i zaleca, aby sztuczna inteligencja jedynie wspierała, a nie zastępowała sędziów. Globalne badanie UNESCO z 2024 r. ujawniło, że tylko 9 % osób zatrudnionych w sądach przeszło szkolenia z AI, choć 44 % korzysta z takich narzędzi; aż 73 % respondentów opowiedziało się za obowiązkową regulacją AI w wymiarze sprawiedliwości.
Brytyjskie wytyczne dla sędziów
Brytyjski wymiar sprawiedliwości publikuje regularnie instrukcje dotyczące AI. W październiku 2025 r. zaktualizowano wytyczne dla sędziów, podkreślając ryzyko uprzedzeń w danych treningowych, halucynacji modeli oraz konieczność zachowania poufności. Sekcja „Przykłady” wskazuje, że generatywne narzędzia można stosować do przygotowywania prezentacji, podsumowań i korespondencji, ale nie rekomenduje się ich do badań prawnych czy analizy argumentów. Dokument ostrzega przed fałszywymi materiałami, w tym deepfake’ami i ukrytym „białym tekstem”, i wymaga osobistej odpowiedzialności sędziów za treści tworzone z użyciem AI.
Europejski Akt o sztucznej inteligencji
Unijny AI Act kwalifikuje systemy używane przez organy wymiaru sprawiedliwości do interpretacji i stosowania prawa jako „wysokiego ryzyka”, co oznacza, że muszą spełniać surowe wymogi dotyczące nadzoru, przejrzystości i ochrony praw podstawowych. Zastosowania wyłącznie administracyjne, jak planowanie rozpraw czy komunikacja, nie są objęte tak restrykcyjnym reżimem. Prawo zachęca do stosowania wyjaśnialnych modeli i zapewnienia możliwości ludzkiej kontroli.
Regulacje w Stanach Zjednoczonych
W Stanach Zjednoczonych sądy reagują na rosnące wykorzystywanie generatywnej AI, wprowadzając obowiązki dotyczące ujawniania i weryfikacji. Proponowana nowojorska reguła 6(e) dla Commercial Division wymaga, aby osoby korzystające z generatywnej AI przy przygotowywaniu pism potwierdzały dokładność i wiarygodność wygenerowanych treści – sąd traktuje użycie AI podobnie jak korzystanie z internetu czy innych źródeł, lecz przypomina, że ostateczna odpowiedzialność spoczywa na prawniku[33]. Reguła podkreśla, że technologia jest nieunikniona, ale może zostać nadużyta, dlatego filtry bezpieczeństwa i weryfikacja źródeł są konieczne[34]. W Kalifornii natomiast od grudnia 2025 r. każdy sąd musi albo zakazać użycia generatywnej AI, albo przyjąć politykę regulującą jej stosowanie, obejmującą obowiązki w zakresie poufności, zwalczania stronniczości i ujawniania wygenerowanej treści.
W praktyce konsekwencje braku kontroli nad AI są poważne. W głośnej sprawie Johnson v. Dunn (2025) sąd federalny nałożył sankcję polegającą na wykluczeniu prawników z prowadzenia sprawy za użycie halucynowanych cytatów z ChatGPT, uznając, że kary finansowe są niewystarczające, by zapobiec wprowadzaniu fikcyjnych treści.
Wyzwania etyczne i wpływ na zawód adwokata
Rozwój AI otwiera nowe możliwości, lecz zmusza prawników do przemyślenia roli i odpowiedzialności. Prawnicy coraz częściej używają narzędzi generatywnych do przygotowywania pism, badań i strategii – według raportu AffiniPay w 2025 r. 31 % indywidualnych praktyków korzysta z generatywnej AI (wzrost z 27 % w 2023 r.), a 45 % używa jej codziennie. Zastosowania obejmują redagowanie korespondencji (54 %), tworzenie strategii (47 %), badania prawne (46 %) oraz streszczanie dokumentów (39 %). Prawnicy widzą w tym narzędziu szansę na usprawnienie pracy, lecz boją się błędów i odpowiedzialności.
Kluczowym obowiązkiem pozostaje zachowanie poufności danych klientów. Wytyczne brytyjskie i nowojorskie zabraniają wprowadzania do ogólnodostępnych narzędzi AI informacji wrażliwych, a jeśli AI uczestniczy w generowaniu pism, prawnik musi zweryfikować wyniki i potwierdzić ich prawdziwość. Sędziowie i adwokaci powinni być również świadomi możliwości manipulacji za pomocą deepfake’ów – pojawiające się fałszywe nagrania mogą naruszać zasady postępowania dowodowego.
Ponadto istnieje niebezpieczeństwo automatyzacji dyskryminujących wzorców. Brazylijski przykład pokazuje, że niewłaściwe użycie ChatGPT może prowadzić do błędnych orzeczeń. Mechanizmy oceny ryzyka, takie jak rezolucja CNJ, podkreślają konieczność audytu algorytmów i umożliwienia stronom zrozumienia, w jaki sposób model dochodzi do rekomendacji.
Wnioski dla praktyków
Trendy technologiczne w prawie zmieniają sposób wykonywania zawodu adwokata, ale nie eliminują potrzeby ludzkiego osądu. Warto zwrócić uwagę na kilka praktycznych wskazówek:
- Świadome wdrażanie: AI może przyspieszać proste czynności, takie jak podsumowywanie akt, przygotowywanie projektów pism czy korespondencji. Należy jednak unikać polegania na AI przy interpretacji prawa lub podejmowaniu decyzji procesowych.
- Weryfikacja i odpowiedzialność: każdy dokument stworzony przy użyciu AI powinien być zweryfikowany przez prawnika; w razie wykorzystania generatywnej AI trzeba ujawnić ten fakt i potwierdzić prawdziwość treści.
- Ochrona poufności: nie wolno wprowadzać danych wrażliwych do publicznych modeli AI – narzędzia powinny być lokalne lub specjalnie przystosowane do pracy z dokumentami prawnymi.
- Szkolenia i rozwój: sędziowie i prawnicy potrzebują szkoleń z zakresu AI; badanie UNESCO wykazało, że tylko 9 % pracowników wymiaru sprawiedliwości miało takie przygotowanie. Inwestycja w kompetencje cyfrowe zwiększa bezpieczeństwo prawne i pozwala lepiej korzystać z narzędzi.
- Etyka i nadzór: wprowadzenie AI wymaga jasnych procedur nadzorczych, oceny ryzyka i audytów algorytmów, szczególnie gdy system wpływa na prawa i obowiązki stron.
Podsumowanie
Technologia i prawo przenikają się dziś bardziej niż kiedykolwiek. Chatboty Beagle+, AVA czy AI‑Chatbook pomagają obywatelom uzyskać dostęp do informacji, wirtualne rozprawy zwiększają wygodę uczestnictwa, a systemy takie jak VICTOR, MarIA czy 206 System przyspieszają zarządzanie sprawami. Jednocześnie rośnie potrzeba regulacji – zarówno międzynarodowych (UNESCO, EU AI Act), jak i krajowych (brytyjskie wytyczne, rezolucja CNJ, reguła nowojorska). Adwokaci muszą nauczyć się współpracować z technologią, zachowując sceptycyzm i odpowiedzialność. Przyszłość należy do tych, którzy połączą efektywność AI z rzetelną wiedzą prawniczą i etyką zawodową.
