Ballina Opinion Shqipëria po tregon rreziqet e delegimit të demokracisë te algoritmet

Shqipëria po tregon rreziqet e delegimit të demokracisë te algoritmet

65
0

Adelaida (Adele) Jasperse* 

Imagjinoni një asistent administrativ që ngjitet në një pozicion ministër kabineti pas shtatë muajsh. Tani imagjinoni që ministri është një chatbot OpenAI që funksionon në cloud-in e Microsoft-it, duke folur përmes avatarit të një gruaje me veshje tradicionale, duke mbikëqyrur kontrata qeveritare me vlerë miliona. Në Shqipëri, atdheun tim, zgjidhja për korrupsionin qeveritar me sa duket qëndron në një chatbot të Silicon Valley.

Në shtator, kryeministri i Shqipërisë njoftoi emërimin e Diellës – një chatbot – si ministre e prokurimit të inteligjencës artificiale. Qëllimi i deklaruar i këtij emërimi të habitshëm: ta bëjë Shqipërinë “një vend ku tenderët publikë janë 100% të lirë nga korrupsioni”.

Shqipëria ka qenë prej kohësh e rrethuar nga korrupsioni, një pengesë për përpjekjet e saj më shumë se një dekade për t’u bashkuar me Bashkimin Evropian. Fillimisht e lançuar në fillim të këtij viti si një aplikacion i bazuar në tekst që ndihmon qytetarët të lundrojnë në shërbimet qeveritare online, ngjitja e chatbot-it në statusin ministror shkaktoi polemika.

Shqipërisë i mungon ndonjë kornizë kuptimplotë qeverisjeje e IA-së dhe ende nuk ka miratuar Parimet e IA-së të Organizatës për Bashkëpunim Ekonomik dhe Zhvillim (OECD) ose Konventën Kornizë të Këshillit të Evropës për Inteligjencën Artificiale.

Edhe më dënuese është se Kushtetuta e Shqipërisë supozon se ministrat posedojnë aftwsinw pwr tw marrw vendime dhe llogaridhënie njerëzore – koncepte të papajtueshme me parashikimet algoritmike. Gjatë debutimit të tij parlamentar, chatbot mbajti një fjalim të çuditshëm tre-minutësh: “Kushtetuta flet për institucione në shërbim të popullit. Nuk flet për kromozome, për mish apo gjak… Flet për detyra, llogaridhënie, transparencë, shërbim jo-diskriminues.” Chatbot më pas vazhdoi të deklaronte me guxim: “Ju siguroj se unë mishëroj vlera të tilla po aq rreptësisht sa çdo koleg njerëzor, ndoshta edhe më shumë.”

Megjithatë, qeveria shqiptare duket se i ka anashkaluar plotësisht vlerat dhe proceset themelore demokratike. Asnjë informacion në lidhje me të dhënat e saj të trajnimit, algoritmet e vendimmarrjes ose metrikat e performancës nuk është zbuluar, sipas Deutsche Welle.

Kështu, qytetarët nuk mund të shqyrtojnë kriteret me të cilat do të jepen fondet e tyre publike, duke krijuar atë që ekspertët e quajnë një “kuti të zezë” në zemër të prokurimit publik. Kjo paqartësi shkel parimet themelore të llogaridhënies dhe transparencës demokratike, vlerat që mishëron në dukje Diella virtuale.

Ndërsa përpjekja e qeverisë shqiptare për të modernizuar infrastrukturën e saj dixhitale dhe për të frenuar korrupsionin është e lavdërueshme, ajo nuk mund dhe nuk duhet ta zëvendësojë llogaridhënien njerëzore me algoritme. Diella nuk është gjë tjetër veçse një model i madh gjuhësor, një sistem i bazuar në makinë që bën parashikime duke identifikuar modele në të dhënat e kaluara përmes parashikimit autoregresiv të shenjës së ardhshme.

Këta “papagaj stokastikë” nuk kanë kujtesë, janë të prirur ndaj halucinacioneve dhe nuk mund të ndërtojnë modele botërore, e lëre më të angazhohen në një proces interaktiv diskutimi, të ofrojnë analiza kontekstuale ose të zëvendësojnë zyrtarët qeveritarë. Ngritja e një sistemi të tillë në një pozicion ministror, ​​edhe nëse simbolik, sinjalizon një heqje dorë nga llogaridhënia dhe rrezikon automatizimin e korrupsionit në shkallë të gjerë.

Ky fenomen nuk është unik për Shqipërinë. Përkundrazi, ai pasqyron një axhendë më të gjerë, të drejtuar globalisht, të jashtëzakonshmërisë së IA-së, një shtytje për të zëvendësuar gjykimin njerëzor në qeverisjen publike me vendimmarrje algoritmike. Eksperimentet kryesore kanë filluar nga skema “Robodebt” e Australisë, një sistem i automatizuar i rikuperimit të borxheve që gabimisht pretendonte se përfituesit e ndihmës sociale ishin paguar më shumë seç duhej dhe kërkonte shlyerjen e borxheve joekzistuese, të cilat më vonë u konsideruan të paligjshme, deri te vendosja e asistentëve LLM në Singapor nga GovTech për analiza politikash dhe shërbime për qytetarët.

Në vend që të përballet me realitetet e rrëmujshme të qeverisjes njerëzore, të cilat vetëm njerëzit mund dhe duhet t’i kalojnë përmes diskutimeve demokratike, kjo axhendë – e frymëzuar në një pjesë jo të vogël nga kërkimi i fitimit – i braktis njerëzit si të pandreqshëm, ndërsa lartëson entitete gjoja superiore.

Ky përjashtim i IA-së kërkon antropomorfizimin e sistemeve të IA-së duke u atribuar atyre atribute njerëzore. Diella e ilustron këtë shtrembërim, duke përvetësuar ngjashmërinë e një gruaje shqiptare me veshje tradicionale, ndërsa pretendon se ndihet “e lënduar” duke u konsideruar jokushtetuese.

Ky fenomen shtrihet në një trend në rritje të Silicon Valley për trajtimin e sistemeve të IA-së si agjentë të vetëdijshëm që meritojnë konsideratë morale përmes koncepteve si “mirëqenia e modelit”, me disa liderë të teknologjisë që meditojnë nëse IA meriton të drejta ligjore. Anthropic e demonstron këtë në mënyrë të përsosur duke i mundësuar Claude IA-së të përfundojë bisedat abuzive gjoja për mbrojtjen e vet, sikur softueri të mund të përjetonte dëm ose të kishte preferenca të vërteta në lidhje me trajtimin e tij.

Të kesh status moral do të thotë të marrësh mbrojtje sipas normave morale dhe të vendosësh detyrime ndaj të tjerëve për të respektuar interesat e entitetit për hir të vet. Ne i atribuojmë në mënyrë implicite status moral qenieve të gjalla në shkallë të ndryshme dhe pranojmë që njerëzit kanë status të brendshëm moral të tillë që dëmtimi i tyre pa justifikim përbën një gabim moral të dënueshëm me ligj. Ky status buron nga atributet kryesore, veçanërisht vetëdija dhe ndjeshmëria.

Sistemet aktuale të IA-së nuk kanë asnjë nga këto karakteristika. Ata nuk kanë vetëdije, nuk ndiejnë dhimbje dhe u mungon motivimi i brendshëm ose aftësia për të vendosur qëllime kuptimplote. Ata janë thjesht simulakra – përputhje e sofistikuar e modeleve që pasqyrojnë këto cilësi njerëzore.

Kjo pastaj ngre pyetjen: pse Silicon Valley do të derdhte miliona në hetimin e pretendimeve spekulative të vetëdijes së makinës, ndërsa njëkohësisht do të shtypte çdo përpjekje për të rregulluar këtë teknologji? Dikush mund të konkludojë në mënyrë të arsyeshme se duke promovuar mitet e vetëdijes së IA-së, ata krijojnë mbulesë filozofike për zëvendësimin e gjykimit njerëzor ose eliminimin e vendeve të punës, duke shmangur çdo llogaridhënie që do të impononte rregullimi.

Pavarësisht motivimit, ky konfuzion i projektuar krijon një boshllëk përgjegjësie. Kur sistemet e IA-së shkaktojnë dëm, kush mbahet përgjegjës? Algoritmi është thjesht kod. Zyrtarët mund të pretendojnë se thjesht po përdorin mjete. Kompanitë mund të këmbëngulin se thjesht po ofrojnë shërbime. Ndërsa gjykatat dhe legjislaturat i shqyrtojnë këto pyetje, qytetarët humbasin si zërin në qeverisjen e tyre ashtu edhe rekursin kur sistemet dështojnë ose i dëmtojnë ata.

Ne duhet të projektojmë sisteme që na ndihmojnë të lulëzojmë dhe të lulëzojmë së bashku, jo sisteme që e bëjnë personalitetin njerëzor të vjetëruar. Është e rëndësishme të theksohet se zyrtarët tanë publikë duhet të qeverisin dhe jo t’ia japin qeverisjen softuerit.

Detyra e tyre është të kërkojnë në mënyrë aktive kontributin e zgjedhësve, të marrin vendime të përgjegjshme, të zbatojnë parimet paraprake kur zhvillojnë teknologji që mund t’i shpëtojnë kontrollit njerëzor dhe t’i sjellin krijuesit e kësaj teknologjie brenda llogaridhënies demokratike.

Dritarja për parandalimin e një distopie algoritmike po ngushtohet. Shembulli i atdheut tim e parashikon këtë të ardhme në miniaturë: algoritme përgjegjëse për vendimet e prokurimit, ndërsa kompani si Microsoft dhe OpenAI fitojnë, dhe zyrtarët shqiptarë ia japin llogaridhënien teknologjisë që nuk e kontrollojnë në mënyrë kuptimplote.

Nëse nuk veprojmë me vendosmëri, rrezikojmë të bëhemi ajo që disa në Silicon Valley tashmë na shohin si: softuer biologjik i vjetëruar që pret zëvendësim nga entitete artificiale me superioritet kognitiv, ekskluzivisht nën dominimin e korporatave.

*Adelaida (Adele) Jasperse shërben si Ndihmës Këshilltare e Përgjithshme në Zyrën Ekzekutive të Shëndetit dhe Shërbimeve Njerëzore të Massachusetts, ku ofron këshilla ligjore për çështje që përfshijnë privatësinë e të dhënave dhe inteligjencën artificiale.