Trebamo li regulirati algoritme?

Razvoj algoritama

Tempo u kojem se odvija napredak tehnologije postigao je brzinu na kojoj ga je postalo veoma teško pratiti i držati korak. Nove tehnologije zahtijevaju promjenu modela putem kojih se pristupa rješavanju problema koji nužno nastaju kao nuspojava takvog napretka. Tehnologija koja u posljednje vrijeme privlači uključuje složene algoritme zaodjenute u ruho big data te umjetne inteligencije i nekih njezinih oblika kao što su machine learning, deep learning i sl. Računalni algoritmi postoje otkako postoje računala, međutim, oni su tek nedavno poprimili razinu složenosti i opseg djelovanja kojima mogu znatno utjecati na živote i prava pojedinaca.

Regulacija?

Tu na scenu stupaju zakonodavci čija je zadaća održati pravednost u društvu na način da se spomenute tehnologije obuzdaju i stave pod kontrolu. Međutim, ovi složeni algoritmi ne stvaraju samo probleme. Algoritmi mogu doprinijeti rješenju problema čiji su dio oni sami putem takozvane algoritamske regulacije. Zakonodavci diljem svijeta pokazali su interes da iskoriste mogućnost upotrebe algoritama pri donošenju odluka na političkom planu. To uključuje npr. upotrebu algoritama za optimizaciju odluka o alokaciji resursa ili donošenje zakona koji predviđaju probleme te ih preduhitre, tzv. „predictive policing“. Drugi primjer primjene algoritama u pravu nalazimo u veoma obećavajućem području korištenja algoritama pri obavljanju sudske djelatnosti.

Rizici

Za početak, spomenimo neke rizične učinke koji mogu proizaći djelovanjem algoritama. Prva, a vjerojatno i najvažnija, skupina učinaka nastaje zbog algoritamske pristranosti. Radi se o slučajevima u kojima se na temelju pojedinačnih značajki osoba donose odluke koje su po svojoj prirodi diskriminatorne. Tako su u praksi poznati slučajevi diskriminacije putem algoritamskih odluka pri npr. zapošljavanju, odobravanju kredita, vjerojatnosti dobivanja zatvorske kazne i sl. Uzevši u obzir mogućnost algoritama da samostalno uče, mali pojavni oblici (ne)svjesnih pristranosti mogu se razviti u ekstremne vrijednosne sustave. Kao živi primjer toga imamo Microsoftov bot Tay, koji je u manje od 24 sata od pokretanja zauzeo fašističke stavove.

Sljedeća skupina štetnih učinaka algoritama bila bi tzv. algoritamska manipulacija putem koje se na temelju podataka prikupljenih od određene skupine ljudi donose općeniti zaključci o ljudima te se na temelju njih plasiraju npr. vijesti. Nadalje, imamo štetne učinke algoritama koje bi mogli svrstati u sljedeće skupine: algoritamsko kršenja zakona – gdje su algoritmi izgrađeni kako bi se namjerno obmanulo zakonodavce i vlast općenito (npr. namještanje cijena);  upotreba algoritama u propagandi – npr. kampanje dezinformiranja, manipulacije izborima i sl.; algoritamske reklamne prijevare te ocrnjivanje brandova – npr. polaganje oglasa određenih kompanija uz govor mržnje ili terorističke poruke; algoritamske nepoznanice – sposobnost računala da uče može ih učiniti previše složenima za ljudsko razumijevanje što uvodi nesigurnost. Moguće je zamisliti i druge vrste prijetnji koje proizlaze iz algoritama, no problematičnost navedenih posebno je istaknuta. Postalo je, dakle, očito da je algoritme potrebno regulirati jer njihova neograničena primjena dovodi do neravnoteža i nepravednosti u društvu.

Opća uredba o zaštiti podataka

Upotreba sustava umjetne inteligencije, koji su jedan od temeljnih pojavnih oblika „pametnih“ algoritama, zahtjeva svakodnevnu obradu podataka velikih razmjera. Sposobnost umjetne inteligencije da samostalno prikupljaju podatke te na temelju njih uče i donose zaključke čini cijelu situaciju posebno rizičnom. Što se toga tiče, određena vrsta regulacije algoritama već se provela, i to u vidu Opće uredbe o zaštiti podataka (GDPR).

Od zahtjeva koje GDPR navodi, važno je istaknuti pravo pojedinca da se na njega „ne odnosi odluka koja se temelji isključivo na automatiziranoj obradi, uključujući izradu profila, koja proizvodi pravne učinke koji se na njega odnose ili na sličan način značajno na njega utječu“. Ovdje „automatizirana obrada“ znači upravo obrada podataka putem nekog algoritma. Spomenuto pravo ispitanika postoji ako se odluka donosi isključivo na automatiziranoj obradi, što znači da to pravo ne postoji ako je odluka donesena kombinacijom automatizirane i „ručne“ obrade osobnih podataka. Što se tiče učinaka automatizirane obrade, oni moraju biti pravni ili moraju na sličan način značajno utjecati na pojedinca. Pravni učinci će biti oni koji utječu na prava pojedinaca, npr. ako se pojedincu na temelju takve obrade zabrani prelazak preko granice ili mu se uskrati socijalna skrb. Učinci koji na sličan način značajno utječu na pojedinca su oni koji imaju jednak učinak kao i pravni učinci ili su im značajno slični. Utjecaj takvih učinaka ne smije biti beznačajan i mora postojati mogućnost da značajno utječu na okolnosti, ponašanje ili odluke pojedinca, npr. automatsko odbijanje zahtjeva za kredit ili recimo praksa donošenja odluke o zapošljavanju bez ljudskog utjecaja.

Profiliranje

Za ovu temu također je od posebne važnosti izrada profila o određenoj fizičkoj osobi. Postoje mnogi sustavi koji vrše automatsku obradu podataka, međutim, veoma često algoritam izvršava profiliranje kao posebnu vrstu automatske obrade.

Što je profiliranje? GDPR iznosi sljedeću definiciju:

„’Izrada profila’ znači svaki oblik automatizirane obrade osobnih podataka koji se sastoji od uporabe osobnih podataka za ocjenu određenih osobnih aspekata povezanih s pojedincem, posebno za analizu ili predviđanje aspekata u vezi s radnim učinkom, ekonomskim stanjem, zdravljem, osobnim sklonostima, interesima, pouzdanošću, ponašanjem, lokacijom ili kretanjem tog pojedinca.“

Algoritmi su sposobni na temelju osobnih podataka donijeti zaključke u vezi pojedinca i to zovemo profiliranjem. Tako su organizacije koje usvoje sustav obrade podataka na temelju nekog algoritma sposobne donositi zaključke o osobama koji su intimne prirode. Takva obrada podataka predstavlja znatno zadiranje u pravo privatnosti pojedinca. Zbog svega navedenog, postoji vjerojatnost da će automatska obrada osobnih podataka prouzročiti visok rizik za prava i slobode pojedinca te je dužnost organizacije, koja je voditelj obrade za obradu osobnih podataka koji su u pitanju, provesti procjenu učinka na zaštitu podataka. Ta procjena, uzimajući u obzir prirodu, opseg, kontekst i svrhe obrade, predviđa na koji način će obrada utjecati na pojedinca te također daje moguća rješenja, odnosno predlaže mjere predviđene za rješavanje problema rizika uzimajući u obzir prava i legitimne interese.

Algorithm Accountability Act

S obzirom na aktualnost pitanja „pametnih“ algoritama te njihov utjecaj na ljudske živote, u SAD-u je 10. travnja ove godine predložen Algorithm Accountability Act (AAA), koji bi trebao regulirati automatiziranu obradu osobnih podataka. Zakonom bi se ovlastila Savezna trgovinska komisija (Federal Trade Commission – FTC) da zahtjeva od subjekata koji koriste, pohranjuju ili dijele osobne podatke da provedu procjenu učinka automatiziranih sustava odlučivanja (automated decision systems) i procjenu učinku na zaštitu podataka u određenim situacijama.

Automatizirani sustav odlučivanja znači računalni postupak, uključujući i onaj koji se izvodi pomoću machine learninga, statistike, ili neke druge tehnike obrade podataka ili umjetne inteligencije, koji donosi odluku ili olakšava ljudsko donošenje odluka, a ima učinak na pojedince. Procjena učinka je analiza kojom bi se procijenilo kakav učinak ima postupak izrade automatiziranih sustava odlučivanja na točnost, pravednost, pristranost, diskriminaciju, privatnost i sigurnost. Pravni subjekti kojih bi se ticala donesena pravila bili bi svaka osoba, udruženje ili korporacija nad kojima FTC ima jurisdikciju, a koji imaju prosječni prihod veći od 50 milijuna američkih dolara, odnosno, koji posjeduju ili kontroliraju informacije više od milijun pojedinaca ili više od milijun uređaja. Procjenjivale bi se relativne koristi i troškovi sustava automatiziranih odluka u skladu s njihovom svrhom, uzimajući u obzir i postupke minimizacije podataka, trajanje obrade podataka i pohrane rezultata obrade, informacije o sustavu automatizirane obrade koji su dostupni pojedincima, stupanj dostupnosti takvom sustavu, mogućnosti ispravaka i prigovara rezultatima te primateljima rezultata takve obrade.

AAA uvodi i pojam „visoko rizičnog automatiziranog sustava odlučivanja“, a to je, ukratko, automatizirani sustav odlučivanja koji predstavlja značajan rizik za privatnost i sigurnost pojedinaca; ili koji za rezultat ima netočne, nepoštene, pristrane ili diskriminatorne odluke koje utječu na pojedince; ili koji značajno utječu na prava pojedinaca; ili koji uključuju osobne informacije velikog broja pojedinaca u vezi s rasom, bojom kože, nacionalnim podrijetlom, političkim mišljenjem, religijom, spolnom orijentacijom i sl. Kompanije bi pod pritiskom tog zakona trebale procijeniti širok krug algoritama što bi pokrilo značajan dio tech industrije s obzirom na to da ima mnogo američkih IT kompanija čiji proizvodi i usluge se koriste globalno. Prijedlog ovog zakona vrlo je vjerojatno rezultat utjecaja velikih sporova koji su u svom središtu imali nepoštene i pristrane algoritme. Navedimo neke kao što su npr. tužba Department of Housing and Urban Developmenta protiv Facebooka u kojoj se tvrdi da sustav usmjeravanja reklama nepošteno ograničava tko može vidjeti reklame u vezi s nekretninama; ili npr. Amazonov alat za zapošljavanje koji je navodno diskriminirao žene.

Algoritmi umjesto sudaca?

O algoritmima, osim kao o objektima u pravu, možemo pričati potencijalno i kao izvorima prava. Pokazalo se da je sudska profesija u krizi iz dva razloga: prvi ima veze s činjenicom da sudski sustavi s vremenom uživaju sve manji legitimitet – ljudi ne vjeruju sudstvu; drugi se tiče sve veće učinkovitosti algoritama. Naime, u teoriji, sudska profesija mogla bi se u potpunosti obavljati putem algoritama te bi je zato mogla zamijeniti. Iako postoji konsenzus oko toga da bi se sve, pa tako i veoma tradicionalne profesije kao što je pravo, trebale digitalizirati, postavlja se pitanje u kojoj mjeri bi se to moglo i trebalo učiniti.

Naša pravna tradicija primjenjuje načelo koje suca zapravo svodi na robota: njemu su predstavljene okolnosti konkretnog slučaju koje on zatim uspoređuje s apstraktnom pravnom normom. Utvrdi li da apstraktna norma adekvatno opisuje životni slučaj i može se na njega primijeniti, on donosi odluku koju je unaprijed propisala ta norma („Sud će kazniti kaznom zatvora od x godina osobu koja počini ubojstvo. Marko je počinio ubojstvo. Marko će se kazniti kaznom zatvora od x godina“). Kao što vidimo, i samo sučevo rezoniranje je poseban algoritam. Isto je i sa sudskim postupkom. Iz toga bismo mogli izvesti zaključak da sudac nema nikakvu kreativnu ulogu – moglo bi se reći da je on „stroj“. Može li zato kompleksan algoritam, koji obavlja jako složene kalkulacije u kratkom vremenu te je sposoban samostalno učiti, biti bolji sudac od čovjeka?

2016. godine tim znanstvenika je izradio sustav za predviđanje ishoda postupaka koji se vode ili su se vodili pred Europskim sudom za ljudska prava. Točnost predviđanja iznosila je visokih 79%. Izjavili su da: “Nedavni napreci u obradi prirodnog jezika (Natural Language Processing) i Machine Learninga nude nam alate za izgradnju modela predviđanja koji bi se mogli koristiti za otkrivanje uzoraka kojima se vode sudske odluke. Ovo može biti korisno, za pravnike i suce, kao pomoćni alat za brzo rješavanje slučajeva. Slično ovom istraživanju, alat koji je izgrađen u sklopu Case Crunch Lawyer Challenge predvidio je sudske odluke s uspješnošću od 86.6%, dok su pravnici – ljudi uspijevali u 62.3% slučajeva. Vrijeme potrebno algoritmu bilo je nekoliko sekundi po slučaju, dok je pravnicima bilo potrebno pola sata.

Međutim, koliko god da bi, u teoriji, sudac trebao biti „robot“ koji prima podatke, obrađuje ih te u skladu s objektivnim i jasnim pravilima donosi odluku, bez obzira na vrijednosti ugrađene u njemu, bez obzira na njegov osjećaj za moral ili emocije, sudac ipak ne može biti zamijenjen. Postoje značajke svojstvene čovjeku koje nam govore da on (vrlo vjerojatno) nikada neće biti u potpunosti zamijenjen (uključujući i na pravnom području), a to se posebno tiče djelatnosti u kojima se radi s ljudima. Kao prvo, strojevi ne znaju slušati. Istina je da je Natural Language Processing znatno napredovao i sposobnost analiziranja jezika omogućava komunikaciju čovjeka i računala na ljudskom jeziku. U vezi s tim, stroj ne može osjetiti i pokazati empatiju. Ljudima je važno da njihove riječi rezoniraju s drugima, a strojevi to trenutačno ne mogu ponuditi. Oni također, barem za sada, ne mogu staviti informacije u kontekst: društveni, kulturalni, politički, povijesni itd., te stoga ne mogu sagledati širu sliku. Sposobnost intuicije svojstvena je čovjeku, a ona često čini upravo onu nijansu koja je potrebna da se postignu dobri rezultati ili donese optimalna odluka.

Regulatorni pristup

Bez obzira što je tehnološkim liberalima regulacija mrska te je smatraju utegom koji samo usporava napredak, trebali bi se pomiriti s činjenicom da regulacija dolazi i da je doista nužna. Ono što je u ovom trenutku nepoznato jest na koji točno način regulirati algoritme. Dosadašnja djelomična i generalna regulativa kroz zaštitu osobnih podataka i zaštitu tržišnog natjecanja je pokazala svoje prednosti i nedostatke kad su u pitanju temeljna ljudska prava te možemo uskoro očekivati posebne zakone koji će regulirati algoritamske primjene kroz sektore, kao što je primjerice zdravstvo, marketing i sudstvo. Također, posljednjih nekoliko godina možemo primijetiti da regulatorima i nadzornim tijelima nedostaje znanja, posebnih vještina i tehničkih resursa kad je u pitanju nadzor novih tehnologija. Za regulatore je važno da ovu temu pomno prouče, educiraju se, identificiraju rizike te zatim urede to pitanje na način koji adekvatno štiti temeljna ljudska prava i slobode, a istovremeno ne koči razvoj društva i tehnologije.

Marija Bošković Batarelo, mag.iur

Trebamo li regulirati algoritme?

Razvoj algoritama

Tempo u kojem se odvija napredak tehnologije postigao je brzinu na kojoj ga je postalo veoma teško pratiti i držati korak. Nove tehnologije zahtijevaju promjenu modela putem kojih se pristupa rješavanju problema koji nužno nastaju kao nuspojava takvog napretka. Tehnologija koja u posljednje vrijeme privlači uključuje složene algoritme zaodjenute u ruho big data te umjetne inteligencije i nekih njezinih oblika kao što su machine learning, deep learning i sl. Računalni algoritmi postoje otkako postoje računala, međutim, oni su tek nedavno poprimili razinu složenosti i opseg djelovanja kojima mogu znatno utjecati na živote i prava pojedinaca.

Regulacija?

Tu na scenu stupaju zakonodavci čija je zadaća održati pravednost u društvu na način da se spomenute tehnologije obuzdaju i stave pod kontrolu. Međutim, ovi složeni algoritmi ne stvaraju samo probleme. Algoritmi mogu doprinijeti rješenju problema čiji su dio oni sami putem takozvane algoritamske regulacije. Zakonodavci diljem svijeta pokazali su interes da iskoriste mogućnost upotrebe algoritama pri donošenju odluka na političkom planu. To uključuje npr. upotrebu algoritama za optimizaciju odluka o alokaciji resursa ili donošenje zakona koji predviđaju probleme te ih preduhitre, tzv. „predictive policing“. Drugi primjer primjene algoritama u pravu nalazimo u veoma obećavajućem području korištenja algoritama pri obavljanju sudske djelatnosti.

Rizici

Za početak, spomenimo neke rizične učinke koji mogu proizaći djelovanjem algoritama. Prva, a vjerojatno i najvažnija, skupina učinaka nastaje zbog algoritamske pristranosti. Radi se o slučajevima u kojima se na temelju pojedinačnih značajki osoba donose odluke koje su po svojoj prirodi diskriminatorne. Tako su u praksi poznati slučajevi diskriminacije putem algoritamskih odluka pri npr. zapošljavanju, odobravanju kredita, vjerojatnosti dobivanja zatvorske kazne i sl. Uzevši u obzir mogućnost algoritama da samostalno uče, mali pojavni oblici (ne)svjesnih pristranosti mogu se razviti u ekstremne vrijednosne sustave. Kao živi primjer toga imamo Microsoftov bot Tay, koji je u manje od 24 sata od pokretanja zauzeo fašističke stavove.

Sljedeća skupina štetnih učinaka algoritama bila bi tzv. algoritamska manipulacija putem koje se na temelju podataka prikupljenih od određene skupine ljudi donose općeniti zaključci o ljudima te se na temelju njih plasiraju npr. vijesti. Nadalje, imamo štetne učinke algoritama koje bi mogli svrstati u sljedeće skupine: algoritamsko kršenja zakona – gdje su algoritmi izgrađeni kako bi se namjerno obmanulo zakonodavce i vlast općenito (npr. namještanje cijena);  upotreba algoritama u propagandi – npr. kampanje dezinformiranja, manipulacije izborima i sl.; algoritamske reklamne prijevare te ocrnjivanje brandova – npr. polaganje oglasa određenih kompanija uz govor mržnje ili terorističke poruke; algoritamske nepoznanice – sposobnost računala da uče može ih učiniti previše složenima za ljudsko razumijevanje što uvodi nesigurnost. Moguće je zamisliti i druge vrste prijetnji koje proizlaze iz algoritama, no problematičnost navedenih posebno je istaknuta. Postalo je, dakle, očito da je algoritme potrebno regulirati jer njihova neograničena primjena dovodi do neravnoteža i nepravednosti u društvu.

Opća uredba o zaštiti podataka

Upotreba sustava umjetne inteligencije, koji su jedan od temeljnih pojavnih oblika „pametnih“ algoritama, zahtjeva svakodnevnu obradu podataka velikih razmjera. Sposobnost umjetne inteligencije da samostalno prikupljaju podatke te na temelju njih uče i donose zaključke čini cijelu situaciju posebno rizičnom. Što se toga tiče, određena vrsta regulacije algoritama već se provela, i to u vidu Opće uredbe o zaštiti podataka (GDPR).

Od zahtjeva koje GDPR navodi, važno je istaknuti pravo pojedinca da se na njega „ne odnosi odluka koja se temelji isključivo na automatiziranoj obradi, uključujući izradu profila, koja proizvodi pravne učinke koji se na njega odnose ili na sličan način značajno na njega utječu“. Ovdje „automatizirana obrada“ znači upravo obrada podataka putem nekog algoritma. Spomenuto pravo ispitanika postoji ako se odluka donosi isključivo na automatiziranoj obradi, što znači da to pravo ne postoji ako je odluka donesena kombinacijom automatizirane i „ručne“ obrade osobnih podataka. Što se tiče učinaka automatizirane obrade, oni moraju biti pravni ili moraju na sličan način značajno utjecati na pojedinca. Pravni učinci će biti oni koji utječu na prava pojedinaca, npr. ako se pojedincu na temelju takve obrade zabrani prelazak preko granice ili mu se uskrati socijalna skrb. Učinci koji na sličan način značajno utječu na pojedinca su oni koji imaju jednak učinak kao i pravni učinci ili su im značajno slični. Utjecaj takvih učinaka ne smije biti beznačajan i mora postojati mogućnost da značajno utječu na okolnosti, ponašanje ili odluke pojedinca, npr. automatsko odbijanje zahtjeva za kredit ili recimo praksa donošenja odluke o zapošljavanju bez ljudskog utjecaja.

Profiliranje

Za ovu temu također je od posebne važnosti izrada profila o određenoj fizičkoj osobi. Postoje mnogi sustavi koji vrše automatsku obradu podataka, međutim, veoma često algoritam izvršava profiliranje kao posebnu vrstu automatske obrade.

Što je profiliranje? GDPR iznosi sljedeću definiciju:

„’Izrada profila’ znači svaki oblik automatizirane obrade osobnih podataka koji se sastoji od uporabe osobnih podataka za ocjenu određenih osobnih aspekata povezanih s pojedincem, posebno za analizu ili predviđanje aspekata u vezi s radnim učinkom, ekonomskim stanjem, zdravljem, osobnim sklonostima, interesima, pouzdanošću, ponašanjem, lokacijom ili kretanjem tog pojedinca.“

Algoritmi su sposobni na temelju osobnih podataka donijeti zaključke u vezi pojedinca i to zovemo profiliranjem. Tako su organizacije koje usvoje sustav obrade podataka na temelju nekog algoritma sposobne donositi zaključke o osobama koji su intimne prirode. Takva obrada podataka predstavlja znatno zadiranje u pravo privatnosti pojedinca. Zbog svega navedenog, postoji vjerojatnost da će automatska obrada osobnih podataka prouzročiti visok rizik za prava i slobode pojedinca te je dužnost organizacije, koja je voditelj obrade za obradu osobnih podataka koji su u pitanju, provesti procjenu učinka na zaštitu podataka. Ta procjena, uzimajući u obzir prirodu, opseg, kontekst i svrhe obrade, predviđa na koji način će obrada utjecati na pojedinca te također daje moguća rješenja, odnosno predlaže mjere predviđene za rješavanje problema rizika uzimajući u obzir prava i legitimne interese.

Algorithm Accountability Act

S obzirom na aktualnost pitanja „pametnih“ algoritama te njihov utjecaj na ljudske živote, u SAD-u je 10. travnja ove godine predložen Algorithm Accountability Act (AAA), koji bi trebao regulirati automatiziranu obradu osobnih podataka. Zakonom bi se ovlastila Savezna trgovinska komisija (Federal Trade Commission – FTC) da zahtjeva od subjekata koji koriste, pohranjuju ili dijele osobne podatke da provedu procjenu učinka automatiziranih sustava odlučivanja (automated decision systems) i procjenu učinku na zaštitu podataka u određenim situacijama.

Automatizirani sustav odlučivanja znači računalni postupak, uključujući i onaj koji se izvodi pomoću machine learninga, statistike, ili neke druge tehnike obrade podataka ili umjetne inteligencije, koji donosi odluku ili olakšava ljudsko donošenje odluka, a ima učinak na pojedince. Procjena učinka je analiza kojom bi se procijenilo kakav učinak ima postupak izrade automatiziranih sustava odlučivanja na točnost, pravednost, pristranost, diskriminaciju, privatnost i sigurnost. Pravni subjekti kojih bi se ticala donesena pravila bili bi svaka osoba, udruženje ili korporacija nad kojima FTC ima jurisdikciju, a koji imaju prosječni prihod veći od 50 milijuna američkih dolara, odnosno, koji posjeduju ili kontroliraju informacije više od milijun pojedinaca ili više od milijun uređaja. Procjenjivale bi se relativne koristi i troškovi sustava automatiziranih odluka u skladu s njihovom svrhom, uzimajući u obzir i postupke minimizacije podataka, trajanje obrade podataka i pohrane rezultata obrade, informacije o sustavu automatizirane obrade koji su dostupni pojedincima, stupanj dostupnosti takvom sustavu, mogućnosti ispravaka i prigovara rezultatima te primateljima rezultata takve obrade.

AAA uvodi i pojam „visoko rizičnog automatiziranog sustava odlučivanja“, a to je, ukratko, automatizirani sustav odlučivanja koji predstavlja značajan rizik za privatnost i sigurnost pojedinaca; ili koji za rezultat ima netočne, nepoštene, pristrane ili diskriminatorne odluke koje utječu na pojedince; ili koji značajno utječu na prava pojedinaca; ili koji uključuju osobne informacije velikog broja pojedinaca u vezi s rasom, bojom kože, nacionalnim podrijetlom, političkim mišljenjem, religijom, spolnom orijentacijom i sl. Kompanije bi pod pritiskom tog zakona trebale procijeniti širok krug algoritama što bi pokrilo značajan dio tech industrije s obzirom na to da ima mnogo američkih IT kompanija čiji proizvodi i usluge se koriste globalno. Prijedlog ovog zakona vrlo je vjerojatno rezultat utjecaja velikih sporova koji su u svom središtu imali nepoštene i pristrane algoritme. Navedimo neke kao što su npr. tužba Department of Housing and Urban Developmenta protiv Facebooka u kojoj se tvrdi da sustav usmjeravanja reklama nepošteno ograničava tko može vidjeti reklame u vezi s nekretninama; ili npr. Amazonov alat za zapošljavanje koji je navodno diskriminirao žene.

Algoritmi umjesto sudaca?

O algoritmima, osim kao o objektima u pravu, možemo pričati potencijalno i kao izvorima prava. Pokazalo se da je sudska profesija u krizi iz dva razloga: prvi ima veze s činjenicom da sudski sustavi s vremenom uživaju sve manji legitimitet – ljudi ne vjeruju sudstvu; drugi se tiče sve veće učinkovitosti algoritama. Naime, u teoriji, sudska profesija mogla bi se u potpunosti obavljati putem algoritama te bi je zato mogla zamijeniti. Iako postoji konsenzus oko toga da bi se sve, pa tako i veoma tradicionalne profesije kao što je pravo, trebale digitalizirati, postavlja se pitanje u kojoj mjeri bi se to moglo i trebalo učiniti.

Naša pravna tradicija primjenjuje načelo koje suca zapravo svodi na robota: njemu su predstavljene okolnosti konkretnog slučaju koje on zatim uspoređuje s apstraktnom pravnom normom. Utvrdi li da apstraktna norma adekvatno opisuje životni slučaj i može se na njega primijeniti, on donosi odluku koju je unaprijed propisala ta norma („Sud će kazniti kaznom zatvora od x godina osobu koja počini ubojstvo. Marko je počinio ubojstvo. Marko će se kazniti kaznom zatvora od x godina“). Kao što vidimo, i samo sučevo rezoniranje je poseban algoritam. Isto je i sa sudskim postupkom. Iz toga bismo mogli izvesti zaključak da sudac nema nikakvu kreativnu ulogu – moglo bi se reći da je on „stroj“. Može li zato kompleksan algoritam, koji obavlja jako složene kalkulacije u kratkom vremenu te je sposoban samostalno učiti, biti bolji sudac od čovjeka?

2016. godine tim znanstvenika je izradio sustav za predviđanje ishoda postupaka koji se vode ili su se vodili pred Europskim sudom za ljudska prava. Točnost predviđanja iznosila je visokih 79%. Izjavili su da: “Nedavni napreci u obradi prirodnog jezika (Natural Language Processing) i Machine Learninga nude nam alate za izgradnju modela predviđanja koji bi se mogli koristiti za otkrivanje uzoraka kojima se vode sudske odluke. Ovo može biti korisno, za pravnike i suce, kao pomoćni alat za brzo rješavanje slučajeva. Slično ovom istraživanju, alat koji je izgrađen u sklopu Case Crunch Lawyer Challenge predvidio je sudske odluke s uspješnošću od 86.6%, dok su pravnici – ljudi uspijevali u 62.3% slučajeva. Vrijeme potrebno algoritmu bilo je nekoliko sekundi po slučaju, dok je pravnicima bilo potrebno pola sata.

Međutim, koliko god da bi, u teoriji, sudac trebao biti „robot“ koji prima podatke, obrađuje ih te u skladu s objektivnim i jasnim pravilima donosi odluku, bez obzira na vrijednosti ugrađene u njemu, bez obzira na njegov osjećaj za moral ili emocije, sudac ipak ne može biti zamijenjen. Postoje značajke svojstvene čovjeku koje nam govore da on (vrlo vjerojatno) nikada neće biti u potpunosti zamijenjen (uključujući i na pravnom području), a to se posebno tiče djelatnosti u kojima se radi s ljudima. Kao prvo, strojevi ne znaju slušati. Istina je da je Natural Language Processing znatno napredovao i sposobnost analiziranja jezika omogućava komunikaciju čovjeka i računala na ljudskom jeziku. U vezi s tim, stroj ne može osjetiti i pokazati empatiju. Ljudima je važno da njihove riječi rezoniraju s drugima, a strojevi to trenutačno ne mogu ponuditi. Oni također, barem za sada, ne mogu staviti informacije u kontekst: društveni, kulturalni, politički, povijesni itd., te stoga ne mogu sagledati širu sliku. Sposobnost intuicije svojstvena je čovjeku, a ona često čini upravo onu nijansu koja je potrebna da se postignu dobri rezultati ili donese optimalna odluka.

Regulatorni pristup

Bez obzira što je tehnološkim liberalima regulacija mrska te je smatraju utegom koji samo usporava napredak, trebali bi se pomiriti s činjenicom da regulacija dolazi i da je doista nužna. Ono što je u ovom trenutku nepoznato jest na koji točno način regulirati algoritme. Dosadašnja djelomična i generalna regulativa kroz zaštitu osobnih podataka i zaštitu tržišnog natjecanja je pokazala svoje prednosti i nedostatke kad su u pitanju temeljna ljudska prava te možemo uskoro očekivati posebne zakone koji će regulirati algoritamske primjene kroz sektore, kao što je primjerice zdravstvo, marketing i sudstvo. Također, posljednjih nekoliko godina možemo primijetiti da regulatorima i nadzornim tijelima nedostaje znanja, posebnih vještina i tehničkih resursa kad je u pitanju nadzor novih tehnologija. Za regulatore je važno da ovu temu pomno prouče, educiraju se, identificiraju rizike te zatim urede to pitanje na način koji adekvatno štiti temeljna ljudska prava i slobode, a istovremeno ne koči razvoj društva i tehnologije.

Marija Bošković Batarelo, mag.iur

Prijavite se na edukaciju

Nazovite nas

Saznajte više o edukacijama
  • +385 1 5626 001