Kodėl Nusikaltėlių Vertinimas Dirbtiniu Intelektu Yra Pavojingas? - Alternatyvus Vaizdas

Turinys:

Kodėl Nusikaltėlių Vertinimas Dirbtiniu Intelektu Yra Pavojingas? - Alternatyvus Vaizdas
Kodėl Nusikaltėlių Vertinimas Dirbtiniu Intelektu Yra Pavojingas? - Alternatyvus Vaizdas

Video: Kodėl Nusikaltėlių Vertinimas Dirbtiniu Intelektu Yra Pavojingas? - Alternatyvus Vaizdas

Video: Kodėl Nusikaltėlių Vertinimas Dirbtiniu Intelektu Yra Pavojingas? - Alternatyvus Vaizdas
Video: 101 puikūs atsakymai į sunkiausius interviu klausimus 2024, Gegužė
Anonim

Dirbtinis intelektas jau tam tikru būdu padeda nustatyti jūsų ateitį. Kai ko ieškote paieškos sistemoje, naudokite tokią paslaugą kaip „Netflix“, arba bankas įvertins jūsų tinkamumą hipotekai. Bet kas nutiks, jei dirbtinis intelektas teisme turi nustatyti, ar tu kaltas, ar ne? Kaip bebūtų keista, kai kuriose šalyse tai jau gali įvykti. Neseniai JAV vyriausiasis teisėjas Johnas Robertsas buvo paklaustas, ar jis galėtų įsivaizduoti dieną, kai „dirbtinio intelekto valdomos išmaniosios mašinos padės rasti įrodymų ar net priimti teisminius sprendimus“. Jis atsakė: „Ši diena jau atėjo, ir jis žymiai padeda teisminėms institucijoms procese“.

Galbūt Robertsas turėjo omenyje neseniai įvykusį Erico Loomiso atvejį, kuris buvo nuteistas šešeriems metams laisvės atėmimo, kai rekomendavo slaptos nuosavos programinės įrangos iš privačios bendrovės. Loomis, kuris jau turėjo kriminalinę istoriją ir buvo nuteistas už pabėgimą nuo policijos pavogtu automobiliu, dabar tvirtina, kad buvo pažeista jo teisė į procedūrą, nes nei jis, nei jo atstovai negalėjo peržiūrėti ar užginčyti rekomendacijos algoritmo.

Ataskaitą parengė programinė įranga „Compas“, kurią „Notrpointe“parduoda laivams. Programa įkūnija naują dirbtinio intelekto tyrimų tendenciją: padėti teisėjams teisme priimti „geresnius“(ar bent jau daugiau duomenimis pagrįstus) sprendimus.

Nors konkrečios „Loomis“bylos detalės lieka uždarytos, joje, be abejo, yra diagramos ir skaičiai, apibrėžiantys „Loomis“gyvenimą, elgesį ir pasikartojimo tikimybę. Tai apima amžių, rasę, lytinę tapatybę, įpročius, naršyklės istoriją ir kai kuriuos kaukolės matavimus. Niekas nežino tiksliau.

Yra žinoma, kad bylos prokuroras teisėjui sakė, kad „Loomis“parodė „didelę pakartotinio nusikalstamumo, smurto, ikiteisminio proceso riziką“. Tai yra standartas, kai reikia skirti bausmes. Teisėjas sutiko ir pasakė „Loomis“, kad „Compas jį identifikavo kaip didelį visuomenės pavojų keliantį asmenį“.

Viskonsino Aukščiausiasis Teismas nuteisė Loomį ir pridūrė, kad Compaso ataskaita pridėjo vertingos informacijos prie jo sprendimo, tačiau pažymėjo, kad be jo jis priėmė tą patį nuosprendį. Žinoma, to tikrai negalėsite patikrinti. Kokie gali būti kognityviniai šališkumai, kai visagalė „išmanioji“sistema, tokia kaip „Compas“, dalyvauja patarinėjant teisėjams, ką daryti?

Nežinomas naudojimas

Reklaminis vaizdo įrašas:

Būkime sąžiningi, tame, ką padarė Viskonsino teismas, nėra nieko „neteisėto“- tai tik pavyzdys. Kiti teismai gali ir tai padaryti.

Deja, mes nežinome, kiek AI ir kiti algoritmai naudojami skiriant bausmes. Manoma, kad kai kurie teismai „išbando“tokias sistemas kaip „Compas“uždaruose procesuose, tačiau negali reikalauti partnerystės. Taip pat manoma, kad keli intelektualiųjų technologijų startuoliai kuria tokias išmaniąsias sistemas.

Image
Image

Tačiau AI naudojimas teisės aktuose neprasideda ir nesibaigia sakiniu, jis pradedamas nuo tyrimo. JK jau yra sukūrusi VALCRI sistemą, kuri per kelias sekundes atlieka daug laiko reikalaujantį analitinį darbą - peršoka daugybę duomenų, tokių kaip tekstai, laboratorijos ataskaitos ir policijos dokumentai, kad būtų izoliuoti dalykai, dėl kurių gali prireikti tolesnio tyrimo.

JK Vakarų Midlandso policija per ateinančius trejus metus išbandys VALCRI naudodama anoniminius duomenis, kuriuose yra daugiau kaip 6,5 milijono įrašų. Panašų bandymą Belgijoje atlieka Antverpeno policija. Tačiau anksčiau dirbtinio intelekto ir gilaus mokymosi projektai, apimantys didžiulius duomenų rinkinius, buvo problemiški.

Privalumai nedaugeliui

Technologijos suteikė daug naudingos pagalbos teismo salėms, pradedant kopijavimo aparatais, atliekant DNR ištraukimą nuo pirštų atspaudų iki sudėtingų stebėjimo būdų. Bet tai nereiškia, kad bet kuri technologija yra patobulinimas.

Nors dirbtinio intelekto naudojimas atliekant tyrimus ir priimant apkaltinamuosius nuosprendžius gali sutaupyti laiko ir pinigų, jis kelia rimtų problemų. „ProPublica“iš „Compas“ataskaitos aiškiai pasakė, kad juodaodžius programa klaidingai laikė labiau recidyvistais nei baltaisiais. Net ir pačios sudėtingiausios dirbtinio intelekto sistemos gali paveldėti jų kūrėjų rasinį ir lytinį nusistatymą.

Be to, kokia prasmė sprendimų priėmimą (bent iš dalies) žmonėms būdingu klausimu perkelti į algoritmą? Jungtinėse Valstijose yra tam tikrų sunkumų, kai žiuri bando savo bendraamžius. Teisiniai standartai niekada nebuvo etalonas, todėl šie prisiekusiųjų teismai yra laikomi demokratiškiausia ir efektyviausia įsitikinimų sistema. Mes darome klaidų, bet laikui bėgant kaupiame žinias, kaip jų nedaryti, tobulindami sistemą.

Kompasai ir panašios sistemos teisinėje sistemoje reiškia juodą langelį. Tokių neturėtų būti. Teisinės sistemos priklauso nuo informacijos tęstinumo, skaidrumo ir gebėjimo peržiūrėti. Visuomenė nenori sistemos, skatinančios lenktynes kurti intelektinės nuosavybės startuolius, kurie sukurtų greitus, pigius ir išskirtinius sprendimus. Paskubomis atliktas dirbtinis intelektas bus baisus.

Patobulinta būtų atnaujinta atvirojo šaltinio „Compas“versija. Bet pirmiausia, prieš pradedant atsakomybę perkelti algoritmų naudai, reikės pakelti teisingumo sistemos standartus.

ILYA KHEL