Министерство по вопросам иммиграции, беженства и гражданства (IRCC) внедрило технологии для ускорения обработки заявок, однако эксперты предупреждают: это может создавать больше проблем, чем решать.
Иммиграционный юрист и основатель Bellissimo Law Group PC Марио Беллиссимо назвал использование искусственного интеллекта IRCC «неизбежным» и «похвальным шагом».
«Главное преимущество — это эффективность. Время обработки сократилось, рутинные дела распределяются более эффективно, а офицеры могут сосредоточиться на сложных случаях», — сказал он. «Например, автоматизация в рассмотрении заявок на спонсорство супругов и временные визы значительно сократила сроки оценки».
Но, хотя автоматизация действительно ускорила процесс, эти достижения вызывают вопросы о справедливости и возможной предвзятости в принятии решений.
Эффективность против справедливости
По словам Беллиссимо, существует риск чрезмерной зависимости от технологий.
«Был случай, когда причины отказа были сформированы в ту же секунду, что и обработка заявки. Это вызывает серьёзные сомнения, действительно ли имел место человеческий пересмотр дела», — отметил он.
Представитель IRCC в ответе по электронной почте заявил, что «окончательные решения не принимаются искусственным интеллектом», и инструменты не могут отклонять заявки.
«IRCC использует инструменты аналитики для сортировки заявок по установленным правилам. Эти системы используют машинное обучение для выявления закономерностей в предыдущих решениях», — сказано в заявлении.
Однако именно в этих закономерностях кроется опасность, считает Петра Молнар, автор книги The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence и заместитель директора Refugee Law Lab в Йоркском университете.
«Технологии не нейтральны», — подчеркнула она.
По её словам, применение технологий без должного контроля ведёт к упрощению сложных случаев, особенно связанных с беженцами и просителями убежища.
«Автоматизация воспроизводит структурную дискриминацию и системный расизм, а заявителям редко объясняют, как принимаются решения, которые меняют их жизнь», — добавила Молнар.
IRCC настаивает, что все инструменты регулярно проверяются сотрудниками, которые сравнивают их результаты с делами, проходящими полный человеческий анализ.
«Определение и минимизация возможной предвзятости или дискриминационных последствий всегда остаются ключевыми задачами при разработке и внедрении технологий», — отмечается на сайте IRCC.
Призыв к прозрачности
Эксперты также указывают на непрозрачность использования технологий IRCC.
Беллиссимо напомнил, что общественность узнала о внедрении инструмента Chinook только через запросы по закону о доступе к информации — без предварительного раскрытия или консультаций. Однако в 2022 году IRCC заявили, что Chinook лишь извлекает информацию из заявок, представляя её офицерам в удобном формате.
Подписывайтесь на наш Telegram-канал, чтобы всегда оставаться в курсе событий.