Бeз предвзятости. В Нью-Йорке приговоры выносит ИИ

Экспeримeнт пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe был oстaнoвлeн нa пoлгoдa с-зa пaндeмии кoрoнaвирусa, нo тeпeрь внoвь нaчинaeт рaбoту.

В Нью-Йoркe вoзoбнoвили рaбoту пилoтнoгo прoeктa пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe — aлгoритм рeкoмeндуeт мeру пресечения. Власть предержащие надеются на сокращение нагрузки получи местные тюрьмы и рассчитывают. в чем дело? это позволит избежать предвзятости. сайт.net рассказывает подробности.

 

Не принимая во внимание расового неравенства

В декабре 2018 годы Европейская комиссия по эффективности правосудия Совета Европы одобрила Европейскую этическую хартию, содержащую убеждения использования искусственного интеллекта в судебной и правоохранительной системах.

Сие первый международный акт, и неизведанную сферу. В хартии говорится о необходимости пользовательского контроля: критик вправе не согласиться с решением, предложенным ИИ, а всякий кому только не лень участник спора имеет пропинация оспорить такое решение и пристать с ножом к горлу суда без применения искусственного интеллекта.

В Нью-Йорке такая концепция призвана освободить тюрьмы, которые, во вкусе считают власти, переполнены с-за излишнего консерватизма американских судей.

Испытание по использованию ИИ в судебной системе был остановлен бери полгода из-за пандемии коронавируса, только теперь вновь начинает работу.

Microsoft заменит редакторов алгоритмами

Таблоид Wall Street Journal пишет, что-нибудь алгоритмы, которые были разработаны возьми основе широкой базы данных числом уже завершенным делам, могут разрешить судьям две рекомендации: отпустить подо залог или заключить почти стражу до суда.

Становой хребет данных состоит из 1,6 миллиона уголовных дел, закрытых в 2009-2015 годах. В ней содержится без- только стандартная личная катамнез, но и такие детали, в качестве кого добровольно ли подозреваемый сообщал принадлежащий домашний телефон и адрес полицейским рядом задержании.

Эта информация оказалась одной с определяющих для алгоритма, потому, как выяснили исследователи, тетушка, кто делал это волей, чаще приходили на судебное встреча сами, поэтому могут лежать отпущены под залог.

По-над проектом работали две независимые доброжелатель от друга компании. А там того, как они создали одну каплю десятков моделей поведения, разработчики объединили силы, (для того оставить преимущественно только совпавшие модели.

В итоге была разработана строй, отчасти похожая на отнесение к категории оценки кредитоспособности физических лиц, еще давно используемый в США.

В противном случае программа, которая создавалась в 2013 году, отпускала подина залог не более 40 процентов подозреваемых, так новый алгоритм — 86,7 процента чернокожих, 89,7 процента белых и 90,7 процента латиноамериканцев. 

Подобная средство, применяемая в штате Нью-Джерси в 2014 году, показала свою продуктивность, сократив аресты почти наполовину. Однако та система невыгодный могла преодолеть расовое расхождение: под стражу взят кажинный третий белый и каждый дальнейший черный.

В этой связи годочек назад около 30 ученых и исследователей с ведущих американских университетов написали открытое цидулька, в котором выразили «серьезные опасения».

«Целые десятилетия исследований показали, как за одни и те а преступления афроамериканцев или латиноамериканцев арестовывали, осуждали аль давали более строгие приговоры чаще, нежели белых», — говорится в письме.

Таким образом, алгоритмы, основанные в анализе таких приговоров, изначально являются предвзятыми.

ИИ сделал первый за полвека антибиотик

 

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.