Ученым удалось разработать фреймворк, который помогает найти необъективность и предвзятость алгоритма, сообщает «Хайтек».

Выявление необъективных решений искусственного интеллекта чрезвычайно важно для судебной и финансовой систем в частности. Непонятно, каким образом ИИ решает, кого отправить в тюрьму или кому не дать кредит. Всегда есть вероятность, что алгоритм обучался неполной выборке. Поэтому ученые подняли проблему расизма и предубеждений искусственного разума.

По мнению исследователей из лондонского Института Алана Тьюринга, расовые и гендерные признаки не должны игнорироваться машинным интеллектом, но в то же время они входят в комплекс факторов для принятия решений, а не являются ответами на вопросы.

Фреймворк успешно прошел испытания. Выяснилось, что алгоритм из-за этого считал чернокожих мужчин и латиноамериканцев более склонными к преступности. Согласно статистике, полицейские чаще всего останавливают их.

Эксперты сошлись на том, что алгоритмы должны быть объективными. Для этого предлагается сделать их открытыми.