Përdoruesit e ChatGPT duhet të mendojnë dy herë para se t’i drejtohen aplikacionit të AI për terapi apo mbështetje emocionale. Sipas CEO-së së OpenAI, Sam Altman, industria e inteligjencës artificiale ende nuk ka gjetur një mënyrë për të mbrojtur privatësinë e përdoruesve në biseda të ndjeshme — sepse nuk ka konfidencialitet ligjor kur “mjeku” juaj është një AI.
Altman i bëri këto komente në një episod të fundit të podcast-it të Theo Von, “This Past Weekend w/ Theo Von.”
Kur u pyet për mënyrën se si AI funksionon në raport me sistemin ligjor të sotëm, Altman tha se një nga problemet është mungesa e një kornize ligjore ose politike për AI, dhe për rrjedhojë nuk ka asnjë mbrojtje ligjore për bisedat që përdoruesit bëjnë me ChatGPT.
“Njerëzit flasin për gjërat më personale të jetës së tyre me ChatGPT,” tha Altman.
“E përdorin — veçanërisht të rinjtë — si terapist, si këshilltar jete; me probleme në marrëdhënie dhe pyesin ‘çfarë duhet të bëj?’. Dhe tani, nëse flet me një terapist apo avokat apo mjek, ekziston mbrojtja ligjore. Ka konfidencialitet mjekësor, ligjor, etj. Por ne ende nuk e kemi përcaktuar se si funksionon kjo kur flet me ChatGPT.”
Kjo mungesë e mbrojtjes ligjore mund të krijojë probleme privatësie për përdoruesit — sidomos nëse bisedat do të kërkohen ligjërisht gjatë një padie, shtoi Altman.
“Mendoj se kjo është vërtet e çuditshme. Duhet të kemi të njëjtin koncept privatësie për bisedat me AI si me një terapist ose mjek — dhe askush nuk kishte menduar për këtë madje as një vit më parë,” tha ai.
OpenAI e kupton që kjo mungesë e mbrojtjes së qartë ligjore mund të jetë një pengesë për përdorim më të gjerë. Përveç nevojës për të dhëna gjatë stërvitjes së AI, kompania është përballur me kërkesa për të dorëzuar të dhëna të përdoruesve në raste ligjore.
Aktualisht, OpenAI është duke luftuar në gjykatë një urdhër në padinë me The New York Times, i cili do ta detyronte të ruante bisedat e qindra milionë përdoruesve të ChatGPT, përveç atyre që përdorin versionin Enterprise.
Në një deklaratë në faqen zyrtare, OpenAI tha se po apelon këtë urdhër, duke e cilësuar atë si “tejkalim të kompetencave”. Nëse gjykata do të ketë të drejtë të anashkalojë vendimet e brendshme të kompanisë mbi privatësinë, kjo do të hapte derën për kërkesa të mëtejshme nga gjykatat apo organet e zbatimit të ligjit.
Sot, kompanitë teknologjike shpeshherë detyrohen me urdhra gjykate të dorëzojnë të dhëna për përdoruesit — për shembull, në hetime penale. Por në vitet e fundit, rreziqet e të dhënave digjitale janë shtuar, sidomos pas ndryshimeve ligjore që kanë kufizuar të drejta si ajo për abortin.
Pas vendimit të Gjykatës Supreme për të rrëzuar Roe v. Wade, shumë përdoruese kaluan në aplikacione më private për ndjekjen e ciklit menstrual, si Apple Health, që ofron enkriptim të dhënash.
Altman pyeti gjithashtu Theo Von për përdorimin e tij të ChatGPT, pasi ky i fundit kishte thënë se nuk i besonte shumë AI-së për shkak të shqetësimeve për privatësinë.
“Mendoj se ka kuptim të presësh sqarime ligjore për privatësinë para se ta përdorësh shumë [ChatGPT],” përfundoi Altman.
Në thelb: Mos e trajtoni ChatGPT si terapistin tuaj — të paktën jo derisa të ekzistojë një mbrojtje ligjore për bisedat tuaja.