Искусственный интеллект уличили в дискриминации
По мнению экспертов, надзорным органам стоит проследить за решениями роботов, которые влияют на жизнь людей
Органам, которые следят за тем, как работают машины на основе искусственного интеллекта (ИИ) стоит проследить за тем, чтобы роботы одинаково воспринимали всех людей, независимо от их пола и расовой принадлежности. Это связано с тем, что иногда выбор, сделанной машиной может сильно повлиять на жизнь человека.
Алгоритмы ИИ сейчас используются в различных отраслях, например, в банках, следственных органах, образовательных учреждениях и т. д. При этом многие компании опасаются, что сторонние организации скопируют ту систему, которую они используют. В связи с этим они не раскрывают подробностей относительно того, как именно ИИ принимает решения.
Эксперты из оксфордского университета предложили обратиться к третьей стороне, чтобы разобраться в тех случаях, когда люди утверждают, что подверглись дискриминации из-за работы ИИ. «Нам бы хотелось, чтобы доверенное лицо, регулятивный или контролирующий орган, тщательно проследил за работой алгоритма и проверил прозрачность работы системы», цитирует Guardian слова ученого.
Данная проблема обсуждается уже давно, например, в 1980х алгоритм, который отбирал студентов для учебы в медицинское школе, входящей в состав St. George’s University of London, делал выбор в пользу мужчин и тех, у кого были европейские имена. Также один из пилотов американских авиалиний сообщал, что его в 80 различных случаях снимали с рейса из-за того, что ИИ принимал его за лидера «Ирландской республиканской армии» — одного из самых грозных террористических формирований в истории Европы.
Были и другие случаи, когда люди теряли работу, водительское удостоверение или их заявки в различных системах отклонялись электронным регистратором из-за настроек системы. При этом современное законодательство не защищает пострадавших в подобных случаях дискриминации.
Подписывайтесь на наш Telegram-канал, чтобы быть в курсе всех новостей и событий Рунета.