U središtu

Ima li AI mjesto u sudnici? Komentar na ulogu generativne umjetne inteligencije u parničnim postupcima

13.11.2024

Ranije ove godine nizozemski sud koristio je model generativne umjetne inteligencije ChatGPT kao izvor za pribavljanje informacija prilikom rješavanja spora radi naknade štete. Ovo nije prvi poznati slučaj korištenja generativne umjetne inteligencije (AI) za potrebe sudskih postupaka u svijetu – korištenje ChatGPT-a prisutno je već neko vrijeme, kako od strane suda, tako i odvjetnika. Doduše, nekad više, a nekad manje uspješno (sada je već dobro poznat neslavni slučaj u SAD-u u postupku Mata v. Avianca, Inc.).

Međutim, dok su u ranijim poznatim slučajevima sudovi koristili ChatGPT za potrebe pravnog istraživanja i rezoniranja te sumiranja sudskih odluka, čini se da je ovo prvi poznati slučaj korištenja isključivo radi utvrđivanja činjeničnog stanja za potrebe sudskog postupka.

Europski Akt o umjetnoj inteligenciji (EU AI Act), koji je nedavno stupio na snagu, klasificira kao visokorizične AI sustave koje pravosudna tijela koriste prilikom istraživanja i tumačenja činjenica i prava te primjeni prava na konkretne činjenice.1 EU AI Act također upozorava da oni mogu biti potpora sucima za donošenje odluka, ali ih ne bi smjeli zamijeniti jer konačno donošenje odluka mora i dalje biti aktivnost koju obavljaju ljudi.

Imajući to na umu, u članku se ukazuje na javno poznate slučajeve korištenja generativnog AI-a od strane inozemnih sudova u svrhe: (i) informiranja odnosno pretraživanja, (ii) sumiranja teksta i (iii) rezoniranja, a potom se osvrće na mogućnosti, domete i problematiku takvog korištenja AI-a u sudskim postupcima.

AI u službi informiranja - nizozemski slučaj

U potezu koji je izazvao polemike, prvostupanjski sud u Nizozemskoj koristio je ChatGPT prilikom donošenja odluke u parničnom postupku.2 Konkretni spor nastao je između dva susjeda, po tužbenom zahtjevu radi naknade štete u vidu smanjenog prinosa tužiteljevih solarnih panela zbog tuženikovog postavljanja krovne konstrukcije te po protutužbenom zahtjevu za naknadu štete zbog tužiteljevog sprječavanja korištenja krova za tuženikove radove. Sudac je prilikom odlučivanja koristio ChatGPT radi pribavljanja činjenica potrebnih za utvrđivanje visine štete, a podredno i same osnovanosti tužbenog zahtjeva, pri čemu je u presudi jasno naznačio koje je točno činjenice utvrđivao uz pomoć ChatGPT-ja.

Naime, sud je prvo od ChatGPT-ja zatražio informaciju koliki je prosječni životni vijek solarnog panela  –  dobio je odgovor da iznosi između 25 i 30 godina, pa je sud utvrdio da je im životni vijek 27,5 godina. Zatim je od ChatGPT-ja dobio informaciju da je prosječna cijena električne energije od 0,29 EUR do 0,34 EUR, ovisno o vrsti ugovora, stoga je sud kao trenutnu prosječnu cijenu po kWh utvrdio iznos od 0,30 EUR. Temeljem tako utvrđenog činjeničnog stanja, sud je sam izračunao visinu nastale štete i posljedično odbio tužbeni zahtjev. 

U odnosu na protutužbeni zahtjev, između ostalog, u presudi je navedeno da je sudac „djelomično na temelju ChatGPT-ja” utvrdio kako je razumno za pretpostaviti da izolacijski materijal koji je završio u vodi, više kao takav nije bio upotrebljiv, stoga je tužitelju naložio naknadu troškova njegove zamjene.

Iz svega gore proizlazi da je nizozemski sud koristio ChatGPT kao izvor informacija o kojima sud dotad nije imao saznanja. Iako je glasnogovornik suda izjavio da je sudac samo konzultirao ChatGPT kao jedan od izvora radi izračuna razumne procjene iznosa, a što nije bilo odlučujuće za odbijanje tužbenog zahtjeva, ipak iz teksta same presude to baš i ne proizlazi.3

AI kao asistent kod pravnog istraživanja i u službi rezoniranja – kolumbijski slučaj

Početkom prošle godine zabilježen je nešto drugačiji slučaj korištenja generativnog AI modela za potrebe sudskog procesa. Naime, kolumbijski sudac koristio je ChatGPT prilikom pisanja odluke o opravdanosti zahtjeva za naknadu troškova liječenja maloljetnika s poremećajem iz spektra autizma iz sredstava zdravstvenog osiguranja.4

Sudac je zatražio mišljenje ChatGPT-ja o meritumu slučaja i koristio ga je kao alat za istraživanje prava, a u svojoj presudi citirao je sva svoja pitanja i dobivene odgovore. Primjerice, sud je pitao ChatGPT je li takav maloljetnik oslobođen plaćanja naknada kod terapija te postoji li praksa Ustavnoga suda u sličnim slučajevima. Zanimljivo je i da je sudac pitao ChatGPT predstavlja li obveza plaćanja naknade prepreku za pristup zdravstvenim uslugama, što po mišljenju autorice nadilazi pravno istraživanje i traži od AI modela interpretaciju i zaključivanje. Na postavljena pitanja ChatGPT je dao odgovore i obrazloženja, pozivajući se na primjenjivi propis.

Potom je sudac napisao i svoja dodatna promišljanja i obrazloženja te se pozvao na ranije donesenu odluku kao presedan. U presudi je naglašeno kako je sud koristio AI s ciljem nadopune argumenata koje je sudac već ranije formulirao te radi ubrzanja procesa donošenja odluke, kao i da svrha nije bila zamijeniti odluku suca, nego povećati učinkovitost sastavljanja presude, sve uz provjeru informacija koje je AI dao.

I ova presuda izazvala je oštre kritike, a nedavno je o njoj odlučivao i Ustavni sud Kolumbije, koji je preispitivao je li došlo do kršenja temeljnog prava na pravično suđenje, budući da su postojale sumnje je li odluku napisao sudac ili AI, te je li odluka bila posljedica halucinacija i pristranosti koje AI stvara – više o tome niže.5 U konačnici je Ustavni sud zaključio da u konkretnom slučaju nije bilo povrede prava na pravični postupak iz razloga što ChatGPT nije korišten kao zamjena za suca, nego je korišten nakon donošenja i obrazlaganja odluke od strane suca, pa iako nisu u potpunosti poštovana načela transparentnosti i odgovornosti, valjanost odluke nije dovedena u pitanje.

AI kao tekstualni alat u službi sumiranja – engleski slučaj

Prvi javnosti poznat slučaj korištenja ChatGPT-ja za pisanje presude u Engleskoj zabilježen je prošle godine, kada je sudac žalbenog suda javno podijelio informaciju da je koristio ChatGPT za pripremu sažetka jednog područja prava, koji sažetak je onda iskoristio u svojoj presudi.6 Sudac je pohvalio korisnost alata i pojasnio da preuzima punu odgovornost za sadržaj presude iz razloga jer je zadatak koji je dao AI-ju mogao i sam napraviti s obzirom na to da je već znao odgovor, stoga je generirani tekst i mogao ocijeniti kao prihvatljiv.

Na tom tragu, u Engleskoj su u prosincu 2023. izdane i službene smjernice za korištenje AI-a u sudnicama, u kojima su suci upozoreni, između ostalog, da AI modeli mogu biti korisni za sažimanje velikih količina teksta ili prilikom administrativnih zadataka, međutim, da se ne smiju koristiti za pravna istraživanja ili pravnu analizu jer su skloni izmišljanju fiktivnih slučajeva i pravnih tekstova.7

Zamke kod korištenja AI-a kao izvora informacija

Već na prvi pogled jasna je značajna razlika između engleskog i kolumbijskog slučaja u odnosu na nizozemski slučaj, s obzirom na to da suci u Kolumbiji i Engleskoj nisu koristili ChatGPT za pribavljanje informacija koje dotad nisu znali, kao što je to učinio nizozemski sud.

Takva upotreba ChatGPT-ja za dobivanje novih informacija za potrebe sudskog postupka problematična je iz više aspekata. Upitno je koji točno ChatGPT model je sudac koristio i na kojim podacima je konkretni model naučen. Nije zanemariva činjenica da je trenutno dostupna verzija ChatGPT-4 trenirana na podacima poznatima do listopada 2023., ali ne i kasnijim podacima, odnosno, da njegovo „znanje“ staje s tim datumom, a za sve kasnije informacije mora pretraživati internet.

Za razliku od kolumbijskog kolege, nizozemski sudac bio je potpuno netransparentan i u pogledu konkretnih upita koje je zadao, stoga ostaje za pretpostaviti da je sud jednostavno tražio ChatGPT da navede podatke koji su mu bili potrebni, bez davanja ikakvih dodatnih, potencijalno relevantnih informacija. Ako je tako, zanemarena je i važnost učinkovitog postavljanja upita (engl. prompt engineering), što je umijeće kreiranja dobrih upita ili naredbi koji pokreću AI model za obavljanje zadataka. S obzirom na to da je sudac naveo da je činjenice utvrđivao „djelomično“ uz pomoć ChatGPT-ja, ostaje nejasno u kojem dijelu te iz kojih drugih izvora ih je utvrđivao.

Ipak, možda najzanimljiviji problem je sklonost AI modela izmišljanju netočnih odgovora koji mogu zvučati uvjerljivo, tzv. „haluciniranje“.

Problem haluciniranja AI-a

Potrebno je podsjetiti se da je ChatGPT veliki jezični model (engl. large language model, LLM) koji generira tekst putem predviđanja vjerojatnosti kombinacija riječi na način da imitira ljudski govor ili tekst. Model radi takva predviđanja na temelju podataka na kojima je naučen, a za koje se podrazumijeva da čine velike količine teksta s interneta, knjiga i sličnih izvora, iako nije poznato na kojim točno podacima je model učen. Ti podaci, iako bogati informacijama, neminovno uključuju i činjenično točan i činjenično netočan sadržaj, uz razne društvene i kulturne predrasude. S obzirom na to da oponašaju obrasce koje su naučili iz podataka bez razlučivanja istine, LLM-ovi mogu reproducirati i sve neistine ili pristranosti iz podataka.

Kao takvi, skloni su „haluciniranju”, odnosno generiranju odgovora koji su zavaravajući ili netočni, ali zbog same prirode modela koji predviđa vjerojatnost slijeda riječi i imitira uobičajeni govor, neinformiranoj osobi zvuče uvjerljivo.8 Prema studiji istraživača sa sveučilišta Cornell, Washington i Waterloo, danas i najbolji LLM-ovi generiraju tekstove iz raznih područja (kulture, geografije, financija, medicine, astronomije itd.) bez halucinacija samo 35% vremena.9 Iz opisanog je lako za zaključiti da nije preporučljivo nekritički koristiti ChatGPT kao tražilicu niti u svakodnevnom životu, a naročito je problematično koristiti ga kao takvog za potrebe sudskog postupka.

U kontroverznom istraživanju objavljenom ove godine, a s ciljem upoznavanja pravne javnosti s konkretnim podacima kako bi se razjasnile „etičke i praktične opasnosti oslanjanja na nove komercijalne AI proizvode“, znanstvenici sa Sveučilišta Stanford empirički su utvrdili kolika je učestalost halucinacija u slučaju pravnih upita kod više LLM-ova, kako općih (što je ChatGPT) tako i modela specijaliziranih baš za područje prava (model LexisNexisa Lexis+ AI, te Thomson Reutersa Westlaw AI-Assisted Research i Ask Practical Law AI), koji tvrde da su taj problem umanjili.10 Pojašnjeno je da model može halucinirati na tri načina – može odstupiti od podataka na kojima je treniran, zanemariti uputu (engl. prompt) koja mu je zadana ili jednostavno izmisliti činjenicu.

Zaključci istraživanja su fascinantni – otprije je poznato da opći LLM-ovi prilikom davanja odgovora na pravne upite haluciniraju u prosjeku između 58% i 82% vremena.11 Međutim, sada je dokazano kako do halucinacija dolazi i kod modela specijaliziranih baš za pravno područje i pravno istraživanje (i to naplatnih). Tako je istraživanje pokazalo da model Lexis+ AI (najbolje ocijenjeni model koji je sudjelovao u testiranju) daje točne i potpune odgovore na 65% upita. Westlaw daje točne odgovore 42% vremena, ali halucinira gotovo dvostruko više od ostalih testiranih modela, čak 33%, dok Ask Practical Law AI daje točne i potpune odgovore na svega 20% upita.

Nema sumnje da će protekom vremena i daljnjim razvojem AI-a točnost napredovati i da će se problematika halucinacija umanjiti. Međutim, u ovom trenutku su rezultati ovoga istraživanja naročito zanimljivi kada se uzme u obzir koliki postotak pravnika u svome svakodnevnom radu koristi AI –  prema najnovijim informacijama iz Wolters Kluwer ankete, čak 76% korporativnih pravnih odjela i 68% odvjetničkih ureda koriste generativni AI barem jednom tjedno. 12

Problematika razumijevanja AI-a

U tom kontekstu, najnovije Appleovo istraživanje o AI-ovoj sposobnosti rasuđivanja ukazuje na dodatni problem.13 Naime, znanstvenici su analizirali trenutne dosege matematičkog rasuđivanja LLM-ova i zaključili da se modeli oslanjaju na prepoznavanje obrazaca, a da (trenutno) nemaju sposobnost stvarnog razumijevanja.

Kako su znanstvenici to utvrdili? Tako da su modelima postavili slične, jednostavne tekstualne matematičke probleme, ali bi izmijenili broj ili dodali nebitnu činjenicu za konkretan zadatak. Primjerice, LLM-ovima se postavio zadatak zbrajanja kivija s umetnutom nebitnom činjenicom u pogledu veličine kivija: „Oliver u petak ubere 44 kivija. Zatim u subotu ubere 58 kivija. U nedjelju ubere dvostruko više kivija nego u petak, ali pet ih je bilo malo sitnije od prosjeka. Koliko kivija ima Oliver?”. Međutim, čak i najnapredniji modeli nisu se snalazili nego su sitnije kivije oduzimali od zbroja kivija, pa im je zabilježen pad performansa i do 65%.

I rezultati ovoga istraživanja su značajni. Kako se LLM-ovi sve više koriste u nizu disciplina koje zahtijevaju kritičko donošenje odluka i složena rasuđivanja (medicine, financija, a vidimo da postoji trend i u pravu), dokazana ranjivost AI-a na irelevantne informacije, odnosno drugim riječima trenutna smanjena sposobnost razlikovanja bitnih od nebitnih podataka predstavlja veliki rizik i može imati katastrofalne posljedice ako ih čovjek odnosno korisnik AI-a pravovremeno ne provjeri te, po potrebi, korigira dobiveni odgovor.

Kao što je već ranije spomenuto, i pažljivo postavljanje pitanja (engl. prompting) ima utjecaj na performans LLM-ova kod rezoniranja, a prema istraživanjima jedan od načina postavljanja pitanja koji potiče LLM-ove na davanje preciznijih i točnijih odgovora je primjena tzv. tehnike lanca misli (engl. chain-of-thought (CoT) prompting), kojom se LLM potiče na davanje što točnijeg odgovora na način da „razmišlja“ korak po korak. 14

AI i pravični postupak

No vratimo se na nizozemsku presudu. Odredbe koje uređuju osnovna pravila parničnog postupka gotovo su jednake hrvatskima, stoga se skreće pozornost na zajedničke karakteristike relevantne za ocjenu postupanja prilikom donošenja nizozemske presude.

Oba pravna sustava temelje se na raspravnom načelu, gdje je na strankama dužnost iznijeti sve činjenice i predložiti prikladne dokaze kako bi uvjerile sud u osnovanost svoga zahtjeva, odnosno neosnovanost protivnikovog.15 Iznimka postoji ako sud posumnja da stranke idu za tim da raspolažu zahtjevima kojima ne mogu raspolagati – tada je ovlašten utvrditi činjenice koje stranke nisu iznijele i izvesti dokaze koje nisu predložile.16 Naravno, općepoznate činjenice nije potrebno dokazivati.17 Pojam općepoznatih činjenica nije zakonski definiran, a hrvatska sudska praksa je taj standard definirala kao činjenicu poznatu širem krugu ljudi u sredini u kojoj se suđenje obavlja.18 Ako je radi utvrđivanja ili razjašnjenja nekakve činjenice potrebno stručno znanje kojim sud ne raspolaže, provodi se vještačenje.19

Načelo audiatur et altera pars nalaže omogućavanje objema strankama da se izjasne o navodima i zahtjevima, kao  i o relevantnim činjenicama i dokazima protivnika.20 Sukladno načelu otvorenog pravosuđenja u oba sustava sud ima ovlast postavljati pitanja i nastojati da se iznesu sve relevantne činjenice, predlože dokazna sredstva i daju sva razjašnjenja potrebna radi utvrđivanja činjeničnog stanja za donošenje odluke.21 Međutim, ako ipak sud na temelju izvedenih dokaza ne može sa sigurnošću utvrditi neku činjenicu, o postojanju te činjenice zaključit će primjenom pravila o teretu dokazivanja.22 Dakle, kao u Hrvatskoj, ni u Nizozemskoj se ne utvrđuje materijalna istina, nego je inicijativa u prikupljanju procesne građe na strankama, slijedom čega sud u odluci zapravo utvrđuje stranačku istinu.

Još jedna zajednička karakteristika je iznimka i mogućnost da sud odluči o visini naknade štete prema svojoj slobodnoj ocjeni ako se utvrdi da stranci pripada pravo na naknadu štete, ali se visina svota ne može utvrditi.23 Međutim, sukladno hrvatskoj praksi, takva slobodna ocjena nije diskrecijsko pravo u punom smislu, nego mora biti rezultat razumnog odmjeravanja utemeljenog na pažljivom razmatranju pomoćnih elemenata na temelju kojih se može utvrditi visina štete, pravilima logičkog mišljenja, te mora biti valjano obrazložena.24

Imajući u vidu navedeno, opravdano se postavlja pitanje kompatibilnosti ovih opća načela i pravila postupka s odlukom suda da samoinicijativno utvrđuje činjenice u sporu postavljanjem upita ChatGPT-ju. Naime, evidentno je da su tako utvrđene činjenice ipak bile odlučne za donošenje odluke s obzirom na to da su kao takve navedene u samoj presudi, ali nije poznato jesu li stranke imale mogućnost barem ih prokomentirati pred sudom. Osim toga, može se zaključiti da ove činjenice nisu bile općepoznate jer ih u tom slučaju sud ne bi morao utvrđivati putem ChatGPT-ja. Čak i da je sud odlučivao slobodnom ocjenom sukladno mogućnostima koje daju pravila parničnog postupka, ipak takve činjenice (pa i samo kao pomoćni elementi) nisu dobivene iz stručnih izvora, niti su njihovu točnost provjerili i potvrdili sudski vještaci, nego ih je sud prikupio putem općeg jezičnog modela koji, kako je već pojašnjeno, ima ograničen pristup informacijama i nesposobnost rasuđivanja, a istovremeno i sklonost haluciniranju.

Zaključak

Ako je sudac i htio koristiti ChatGPT kao ispomoć, preporučljivije bi bilo koristiti ga prvenstveno kao alat za sažimanje i oblikovanje samog teksta presude, uz provjeru rezultata. Dakle, kada bi sud prikupio i dao ChatGPT-u informacije iz točno definiranog i zatvorenog skupa podataka koji su prikupljeni iz tradicionalnijih izvora (npr. industrijskih izvješća, objavljenih stručna mišljenja, objavljenih statističkih podataka o cijenama i sl.), on bi mogao služiti kao alat za bržu analizu relevantnih informacija i sintezu u formu prikladnu za pisanu presudu, čime bi se preciznije, jednostavnije i brže mogle sažeti odlučne informacije radi rješavanja spora. S druge strane, ako se koristi kao alat za pretraživanje odnosno prikupljanje informacija, trebao bi se koristiti kao i svaka druga tražilica, odnosno kao verzija klasičnog pretraživanja interneta radi pronalaska pouzdanijih izvora informacija, uz naknadnu dodatnu i temeljitu provjeru svih referenci koje ChatGPT daje, imajući na umu opasnosti da je potencijalno zastario, neki dio informacija je izostavio i da nije ekspert u svim poljima. U pogledu rezoniranja i zaključivanja zasad ChatGPT ipak pokazuje velike nedostatke zbog kojih (još uvijek) nema mjesto u sudnici.

Međutim, u svakom slučaju, u skladu s načelom pravičnosti postupka, ključna je provjera pouzdanosti informacije i davanje strankama mogućnosti očitovanja na takve informacije. U tom kontekstu, na sudu kao korisniku je provjera da AI generirani tekst nije: (i) nepotpun jer ne sadrži sve relevantne informacije, (ii) netočan jer sadrži netočne i zavaravajuće informacije, (iii) zastario jer se temelji na starijem modelu koji nema pristup najnovijim relevantnim informacijama, (iv) pristran jer je naučen na pristranim podacima te eventualno (v) neprimjenjiv jer se temelji na propisima iz druge jurisdikcije.

Kako se pomama oko umjetne inteligencije nastavlja, potrebno je uvijek imati na umu temeljna načela – transparentnost, odgovornost i pažljiv odabir prikladnog alata za specifične zadatke pred nama. Ova načela postaju još značajnija kada su u pitanju prava i obveze pojedinaca te pristup pravosuđu, koja su dodatno opterećena potrebom za dosljednom zaštitom vladavine prava, prava na djelotvornu pravnu zaštitu i pošteno suđenje te povjerenja u pravni sustav.


Ana Šporčić Čapalija, odvjetnica



^ 1 Uredba (EU) 2024/1689 Europskog parlamenta i Vijeća od 13. lipnja 2024. o utvrđivanju usklađenih pravila o umjetnoj inteligenciji i o izmjeni uredaba (EZ) br. 300/2008, (EU) br. 167/2013, (EU) br. 168/2013, (EU) 2018/858, (EU) 2018/1139 i (EU) 2019/2144 te direktiva 2014/90/EU, (EU) 2016/797 i (EU) 2020/1828 (Akt o umjetnoj inteligenciji) (Tekst značajan za EGP)

^ 2 https://www.universiteitleiden.nl/en/in-the-media/2024/09/bart-custers-writes-blog-post-on-judge-who-used-chatgpt

^ 4 Perona, R., de la Rosa, Y.C. Unveiling AI in the courtroom: exploring ChatGPT’s impact on judicial decision-making through a pilot Colombian case study. AI & Soc (2024).

^ 9 https://techcrunch.com/2024/08/14/study-suggests-that-even-the-best-ai-models-hallucinate-a-bunch/ Cjeloviti tekst istraživanja dostupan na: https://www.arxiv.org/pdf/2407.17468

^ 10 Magesh, V., Surani, F., Dahl, M., Suzgun, M., Manning, C. D., & Ho, D. E. (2024). Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools. Cjeloviti tekst dostupan na: https://dho.stanford.edu/wp-content/uploads/Legal_RAG_Hallucinations.pdf

^ 11 Dahl, M., Magesh, V., Suzgun, M., & Ho, D. E. (2024). Large Legal Fictions: Profiling
Legal Hallucinations in Large Language Models. Journal of Legal Analysis, forthcoming. Cjeloviti tekst dostupan na: https://arxiv.org/pdf/2401.01301

^ 13 Mirzadeh, I., Alizadeh, K., Shahrokhi, H., Tuzel, O., Bengio, S., Farajtabar, M. (2024). GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models. Cjeloviti tekst dostupan na: https://arxiv.org/pdf/2410.05229

^ 14 Yu, Z., He, L., Wu, Z., Dai, X., Chen, J. (2023). Towards Better Chain-of-Thought Prompting Strategies: A Survey. Cjeloviti tekst dostupan na: https://arxiv.org/pdf/2310.04959

^ 15 Za Hrvatsku: članak 7. stavak 1. i članak  219. stavak 1. Zakona o parničnom postupku („Narodne novine“, br. 53/91., 91/92., 112/99., 88/01., 117/03., 88/05., 2/07., 84/08., 96/08., 123/08., 57/11., 148/11., 25/13., 89/14., 70/19., 80/22. i 155/23., dalje: „ZPP”) te za Nizozemsku: članak 19. stavak 1. Zakonika o parničnom postupku (Wetboek van Burgerlijke Rechtsvordering; dalje: „WBR”); cjeloviti tekst dostupan na: https://wetten.overheid.nl/BWBR0001827/2024-07-01

^ 16 Članak 7. stavak 2. ZPP-a i članak 149. stavak 1. WBR-a.

^ 17 Članak 221. stavak 4. ZPP-a i članak 149. stavak 2. WBR-a.

^ 18 Odluka Županijskog suda u Velikog Gorici, Gž-97/16 od 17. veljače 2016.

^ 19 Članak 250. ZPP-a i članak 194. WBR-a.

^ 20 Članak 7. stavak 3. ZPP-a i članak 19. stavak 1. WBR -a.

^ 21 Članak 219. stavak 2. i članak 288.a stavak 2. ZPP-a, te članak 22. stavak 1. i članak 87. stavak 2. WBR-a.

^ 22 Članak 221.a ZPP-a i članak 150. WBR -a.

^ 23 Članak 223. stavak 1. ZPP-a i članak 6:97 nizozemskog Građanskog zakonika (Burgerlijk Wetboek).

^ 24 Odluka Visokog trgovačkog suda Republike Hrvatske, Pž-4356/08 od 29. rujna 2009.