Guvernul britanic dezvoltă un instrument controversat de „predicție a crimelor” destinat identificării persoanelor cu risc ridicat de a comite omucideri, utilizând algoritmi pentru a analiza date personale ale indivizilor cunoscuți de autorități. Inițial denumit „proiectul de predicție a omuciderilor”, acesta a fost ulterior redenumit „partajarea datelor pentru îmbunătățirea evaluării riscurilor”. Proiectul se află în faza de cercetare și utilizează date de la infractori condamnați, însă activiștii susțin că include și informații sensibile despre persoane fără condamnări penale, cum ar fi cele implicate în cazuri de abuz domestic sau care suferă de probleme de sănătate mintală.
Ministerul Justiției (MoJ) afirmă că doar datele persoanelor cu condamnări penale sunt utilizate și că scopul este de a spori siguranța publică printr-o mai bună analiză a riscurilor. Sursele de date includ Serviciul de Probațiune și înregistrările Poliției din Greater Manchester anterioare anului 2015, cuprinzând condamnări penale, date demografice și indicatori legați de sănătate, cum ar fi dependența, suicidul și dizabilitățile. Criticii, precum grupul Statewatch, se tem că proiectul ar putea consolida prejudecățile sistemice existente și discrimina minoritățile etnice și comunitățile cu venituri reduse. Deși oficialii guvernamentali insistă că este doar pentru cercetare și că va fi publicat un raport, preocupările legate de implicațiile etice ale proiectului și de posibila utilizare abuzivă a datelor personale rămân.
Amnesty International a solicitat interzicerea utilizării tehnologiilor de „predictive policing” în Regatul Unit, invocând natura părtinitoare și discriminatorie a acestora. Raportul lor, intitulat „Automated Racism”, evidențiază faptul că aceste instrumente se bazează pe date provenite din practici istorice rasiste și nedrepte, precum oprirea și percheziția, care vizează disproporționat persoanele de culoare. Amnesty susține că aceste sisteme modernizează, în esență, profilarea rasială, exacerbând inegalitatea și discriminarea.
În plus, un raport al Royal United Services Institute (RUSI) avertizează că algoritmii de învățare automată ar putea reproduce sau amplifica părtinirile existente legate de rasă, sexualitate și vârstă. Ofițerii de poliție și-au exprimat îngrijorarea cu privire la lipsa de garanții și supraveghere în utilizarea acestor tehnologii, subliniind riscul ca părtinirile umane să fie introduse în seturile de date ale algoritmilor, ceea ce ar putea duce la rezultate discriminatorii.
Utilizarea inteligenței artificiale în sistemul de justiție penală ridică, de asemenea, preocupări semnificative. De exemplu, un instrument britanic de inteligență artificială destinat să prezică infracțiunile violente a fost considerat prea defectuos pentru a fi utilizat. Acest instrument a fost conceput pentru a prezice dacă persoanele vor comite prima lor infracțiune violentă cu o armă de foc sau cuțit în următorii doi ani, utilizând date istorice despre 2,4 milioane de persoane din baza de date a Poliției West Midlands și 1,1 milioane din West Yorkshire. Cu toate acestea, s-au ridicat întrebări cu privire la potențialul instrumentului de a fi părtinitor față de grupurile minoritare și la utilitatea sa în activitățile de poliție.
Deși intenția declarată a guvernului britanic este de a utiliza tehnologia pentru a îmbunătăți siguranța publică, dezvoltarea și implementarea unor astfel de sisteme de predicție ridică întrebări serioase despre etică, discriminare și respectarea drepturilor civile. Este esențial ca aceste tehnologii să fie supuse unei supravegheri riguroase și să fie dezvoltate cu transparență, pentru a preveni consolidarea prejudecăților existente și pentru a proteja drepturile fundamentale ale tuturor cetățenilor.