Menu Zamknij

Predykcja w sprawach karnych jako system wysokiego ryzyka w AI Act

Predykcja to proces przewidywania przyszłych zdarzeń, wartości lub wyników na podstawie danych historycznych i aktualnych. Jest to kluczowy element w wielu dziedzinach, takich jak statystyka, analiza danych, uczenie maszynowe i sztuczna inteligencja.

Predykcje mogą być wykorzystywane do różnych celów, takich jak prognozowanie pogody, przewidywanie trendów rynkowych, analiza ryzyka i diagnoza medyczna. Dzisiaj przyjrzymy się jednak predykcji w sprawach karnych. Oznacza ona wykorzystanie technik analitycznych, do przewidywania różnych aspektów związanych z przestępczością przede wszystkim w celu efektywniejszego jej zapobiegania.

Algorytmy wykorzystywane do predykcji mogą:

  • typować prawdopodobne miejsca wystąpienia przestępstwa
  • profilować potencjalnych sprawców na podstawie wzorców zachowań
  • przydzielać sędziów do spraw
  • wykonywać ocenę ryzyka w przypadku zwolnienia warunkowego
  • a także obliczać stopień prawdopodobieństwa recydywy.

Przydatne okazują się więc systemy takie jak PredPol czy inaczej Geolitica zajmujące się szeroko pojętym predictive policing – mogą wspomagać pracę służb poprzez typowanie miejsc, w których prawdopodobne jest wystąpienie przestępstwa. Służby mają możliwość wcześniejszej reakcji poprzez wysłanie dodatkowego patrolu w to miejsce, co może (biorąc pod uwagę margines błędu) zapobiec wystąpieniu przestępstwa

Predykcja w sprawach karnych jest jednak kontrowersyjna i będąc przedmiotem wielu debat etycznych budzi wątpliwości, co do jej dokładności, ryzyka uprzedzeń i dyskryminacji, a także co do ochrony prywatności tych, którzy analizie podlegają.

Przykładem tego jest sprawa Loomis vs Wisconsin – sprawa przed Wisconsin Supreme Court dotyczyła oprogramowania do oceny ryzyka COMPAS. Model COMPAS był systemem predykcyjnym, ponieważ opisywał jak cechy sprawcy (jego wiek, historia kryminalna, edukacja itp.) wpływają na prawdopodobieństwo recydywy. E. Loomis podniósł, że poprzez stosowanie tego systemu naruszone zostało jego prawo do sprawiedliwego procesu. Nie mógł on bowiem „sprawdzić”, z jakich danych i kryteriów korzysta system – i czy płeć nie jest jedną z nich, co doprowadziłoby do dyskryminacyjnego zachowania sądów, korzystających z tego oprogramowania.

Również państwa Unii Europejskiej dostrzegły potencjalne problemy wynikające z korzystania z mechanizmów predykcyjnych w sprawach karnych. Pomimo licznych korzyści prawodawca unijny dostrzegł, że ryzyka są zbyt daleko idące, co wyraził w art. 5 AI Act, który wyznacza zakazane praktyki w zakresie sztucznej inteligencji w Unii Europejskiej.

Zgodnie z nim nie można wprowadzać do obrotu, oddawać do użytku lub wykorzystywać systemu sztucznej inteligencji do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, aby ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, bazując wyłącznie na profilowaniu osoby fizycznej lub na ocenie jej cech osobowości i cech charakterystycznych. Zakaz ten nie znajdzie zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny zaangażowania danej osoby w działalność przestępczą, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach związanych bezpośrednio z działalnością przestępczą.

Podsumowując – regulacje AI Act są odpowiedzią na niebezpieczeństwa wynikające m.in. z metody predykcji właśnie w sprawach karnych. Nadal jednak problem pozostaje aktualny, ze względu na nieprecyzyjność regulacji oraz zawrotne tempo z jakim rozwijają się technologie, a także biorąc pod uwagę obecność tych systemów w codziennym życiu zarówno w Stanach Zjednoczonych jak i na kontynencie azjatyckim. 

Aleksandra Kawa