Fuck the Algorithm: абитуриенты бунтуют из-за предвзятой программы
Великобритания заявила о том, что студенты в Англии и Уэльсе больше не будут получать заниженные результаты экзаменов, подтасованные из-за предвзятого алгоритма. Да-да, это тот самый киберпанк, который мы заслужили: система намеренно занижала баллы студентам из более бедных семей, как сообщают Reuters и BBC News.
Из-за коронавируса в Великобритании, как и во всем мире, сложилась очень сложная ситуация со свежим потоком абитуриентов, которых как-то надо было распределить по вузам и колледжам. A-level — это набор экзаменов, которые сдают учащиеся в возрасте примерно 18 лет. Это выпускные экзамены, которые нужно сдать перед университетом, и их результат очень сильно влияет на то, куда поступит абитуриент. Университеты делают предложения на основе прогнозируемых оценок учащихся — нужно набрать не ниже порогового балла по ряду предметов.
Однако в этом году сначала в Шотландии, а затем и в Великобритании сотни абитуриентов вышли на улицы с лозунгом «Fuck the algorithm!». Все дело в том, что Управление экзаменами Великобритании (Ofqual) решило положиться на специально созданный для этой цели алгоритм, который подсчитывал шансы на поступление. В целом у него было два источника информации: рейтинг конкретных учащихся и средние показатели успеваемости их школ. В результате возникла ситуация, когда корректировка оценки даже успешных студентов выполнялась далеко не в пользу будущих студентов, если им не повезло учиться в школе с плохой репутацией. И напротив: чем дороже и респектабельнее было учебное заведение — тем более высокий коэффициент получал результат фактического теста.
В итоге, по подсчетам газеты The Guardian, алгоритм успешно занизил баллы примерно 40% всех выпускников страны. Разумеется, все не ограничивается лишь двумя источниками данных, и большая часть реальной системы подсчета оценок попросту не разглашается. Одна теория, выдвинутая FFT Education Datalab, заключается в том, что подход Ofqual варьировался в зависимости от того, сколько учеников изучали данный предмет. Это решение, похоже, привело к снижению оценок в частных школах, которые, как правило, набирают меньше учеников по каждому предмету.
Решение правительства игнорировать алгоритмически определяемые оценки будет хорошей новостью для многих, но даже использование для прогнозов живых учителей сопряжено со своими проблемами. Как отмечает Wired, некоторые исследования показали, что такие прогнозы могут страдать от, к примеру, расовых предубеждений. В 2009 году ученые выяснили, что пакистанские ученики в среднем получили более низкий балл (62,9%), чем их белые сверстники, на одном из наборов экзаменов по английскому языку, а результаты для мальчиков из чернокожих и карибских семей загадочным образом могут резко возрасти, если… оценивать их анонимно.