Përmbledhje redaksionale:
Përdorimi në rritje i inteligjencës artificiale në proceset gjyqësore në Holandë po ngre pyetje themelore mbi transparencën, të drejtat procedurale dhe barazinë e palëve në gjykim. Ky artikull përshkruan rastet konkrete në të cilat ChatGPT është përdorur nga gjyqtarët apo palët ndërgjyqëse në gjyqet holandeze, duke ofruar analizë të thelluar mbi pasojat normative dhe sfidat për drejtësinë bashkëkohore.
Mbërritja e IA-së në Gjykatat Holandeze: Raste, sfida dhe nevoja për standarde të reja
Nga avokatët që hartojnë parashtresa me ndihmën e ChatGPT, te gjyqtarët që përdorin modele të mëdha gjuhësore për të ndihmuar në vendimmarrje – inteligjenca artificiale (IA) është tashmë pjesë e realitetit të sallave gjyqësore në Holandë. Ky zhvillim i fundit, ndonëse i pritshëm për komunitetin akademik ligjor, po zbulon boshllëqe thelbësore normative dhe standarde të paqarta në praktikën gjyqësore.
Në këtë analizë për studiuesit juridikë, shqyrtojmë gjashtë vendime holandeze të vitit 2024–2025 ku përdorimi i ChatGPT është dokumentuar qartazi – nga vetë gjyqtari apo nga palët në gjykim – duke ndriçuar tensionin mes inovacionit teknologjik dhe parimeve themelore të së drejtës procedurale.
Përdorimi gjyqësor i ChatGPT: Rasti Gelderland
Gjykata e Gelderland (ECLI:NL:RBGEL:2024:3636) vendosi të përdorte ChatGPT për të vlerësuar jetëgjatësinë e paneleve diellore në një mosmarrëveshje mes fqinjësh. Në vendim, gjyqtari deklaroi se, me ndihmën e ChatGPT, përcaktoi jetëgjatësinë në 27.5 vite – një fakt që ndikoi drejtpërdrejt në llogaritjen e dëmeve. Ky vendim hapi një debat të gjerë në komunitetin ligjor holandez mbi kufijtë e lejueshëm të përdorimit të mjeteve të IA-së nga trupi gjykues.
Përdorimi nga palët në gjykim: 5 raste refuzimi
Në pesë rastet e tjera të analizuar, ChatGPT u përdor nga avokatë dhe palë të interesuara si provë ose mjet interpretimi. Në të gjitha këto raste, gjykatat refuzuan provat e nxjerra nga ChatGPT për arsye të ngjashme:
-
Mungesa e qartësisë mbi pyetjen e parashtruar në ChatGPT
-
Mungesa e transkriptimit të saktë të përgjigjes
-
Mungesa e referencave burimore në tekstin e gjeneruar
Për shembull, në Gjykatën e Apelit të Hagës (ECLI:NL:GHDHA:2024:1771), argumenti i tatimpaguesit që përdori ChatGPT për të krahasuar Ferrari-n me automjete të ngjashme u hodh poshtë si i pambështetur në standardet e një konsumatori mesatar.
Dy standarde të ndryshme? ChatGPT si provë e paautorizuar për palët, por e pranueshme për gjyqtarin?
Krahasimi mes përdorimit të ChatGPT nga gjyqtari në Gelderland dhe refuzimit të tij nga palët ndërgjyqëse ngre shqetësime serioze për standardet e dyfishta dhe cenimin e së drejtës për një gjykim të drejtë (audi alteram partem). Ndryshe nga rasti kolumbian, ku një gjykatës transkriptoi tërësisht komunikimin me ChatGPT në vendim, gjyqtari holandez nuk dokumentoi pyetjen apo përgjigjen. Kjo krijon pasiguri serioze për palët dhe sfidon besueshmërinë e procesit.
Kuadrimi normativ: Aplikohet Akti Evropian për Inteligjencën Artificiale?
Përdorimi i ChatGPT nga gjykatat përputhet me definicionin e “sistemeve me rrezik të lartë” sipas Shtojcës III të Aktit të BE-së për IA-në, çka nënkupton se:
-
Duhet të bëhet vlerësim i ndikimit në të drejtat themelore
-
Duhet të garantohet mbikëqyrja njerëzore dhe transparenca
-
Duhet të sigurohet qeverisja e të dhënave dhe pajtueshmëria me GDPR
Ndërkohë që LLM-të si ChatGPT klasifikohen si sisteme të përgjithshme të IA-së (GPAI), përdorimi i tyre në mjedise gjyqësore bën që rreziku të rritet ndjeshëm.
Rekomandime për politikëbërjen gjyqësore holandeze
Në mungesë të një strategjie zyrtare për IA-në, që pritej në fillim të vitit 2025, jurisprudenca po udhëheq zhvillimet me rregulla të fragmentuara dhe interpretime të paunifikuara. Në këtë kontekst, tri masa paraqiten si urgjente:
-
Standardizimi i kushteve të përdorimit të IA-së nga gjyqtarët dhe palët në gjyq
-
Vendosja e një klasifikimi të qartë të rrezikut sipas Aktit të BE-së për IA-në
-
Sigurimi i mbrojtjes së të dhënave dhe ruajtjes së privatësisë në çdo përdorim të IA-së
Përfundim: Koha për rregullim të përgjegjshëm është tani
Ndërsa IA po bëhet pjesë integrale e mjedisit gjyqësor, miratimi i saj duhet të bazohet në parime të sigurisë juridike, transparencës dhe respektimit të të drejtave procedurale. Pa këto standarde, çdo përfitim i mundshëm rrezikon të minojë vetë themelin e një drejtësie të paanshme dhe të ligjshme.
Autori:
D.G. (Daan) Kingma, jurist kërkues në fushën e teknologjisë dhe rregullimit të BE-së. Ka diplomë LLB në të Drejtën Ndërkombëtare dhe Evropiane dhe master në Studime Aziatike. Aktualisht ndjek programin e avancuar në të Drejtën e Teknologjisë dhe Privatësisë në Universitetin e Groningenit.