Le 26 septembre 2018 – L’utilisation de l’intelligence artificielle dans le traitement des demandes d’immigration au Canada comporte de nombreux dangers, Ottawa a été prévenu.
Un rapport de l’Université de Toronto soulève des questions liées aux droits de la personne, à la vie privée et à la discrimination par rapport à l’exploration par le gouvernement fédéral canadien de la possibilité d’utiliser l’IA.
Selon le rapport, laisser des décisions qui ont un impact direct sur la vie des immigrants et des réfugiés à des processus automatisés est une préoccupation majeure.
La technologie pourrait faire des hypothèses incorrectes et comporter des erreurs intégrées qui pourraient faire la différence dans le succès ou l’échec d’une application.
En savoir plus
L’intelligence artificielle et l’immigration au Canada : plus de problèmes que des solutions
Les auteurs du rapport ont demandé que les organismes gouvernementaux envisagent de recourir à la surveillance, à l’établissement de rapports publics et à la transparence, notamment en ce qui concerne l’Immigration, Réfugiés et Citoyenneté Canada.
Les experts disent que sans les mesures de protection appropriées, les biais qui pourraient exister dans les algorithmes pourraient entraîner des erreurs dans un nombre important de demandes d’immigration.
Deux projets pilotes sont en cours, qui utilisent IA pour trier les demandes de visa de visiteur de la Chine et de l’Inde. L’objectif est d’aider à traiter les applications de routine plus rapidement.
Les responsables d’IRCC disent que l’IA est utilisée uniquement comme mécanisme de tri, soulignant les cas complexes pour plus d’attention, avec toutes les décisions prises par les agents d’immigration.
Ottawa étudie également d’autres projets pilotes possibles liés à l’utilisation de l’IA en lien avec les demandes d’asile et les évaluations des risques avant le renvoi.
Les critiques disent que les réfugiés devraient être les derniers cas sur lesquels un pilote devrait se concentrer, étant donné que les sujets sont parmi les plus vulnérables du système canadien.
L’intelligence artificielle, détient-elle la clé d’une administration efficace de l’immigration ?
L’utilisation de l’IA vise à aider les autorités fédérales de l’immigration à améliorer la gestion des nouvelles applications.
La question est de savoir si cela peut s’appliquer à d’autres domaines des programmes d’immigration du Canada, notamment en aidant à accepter ou à refuser une demande.
Une décision de refuser une demande, fondée sur un processus technologique, peut-elle résister à une contestation judiciaire ?
Entrée express et l’intelligence artificielle
L’évaluation de l’éligibilité peut impliquer de nombreux détails complexes nécessitant une analyse minutieuse et une approche nuancée de la part du décideur.
Sous Entrée express, l’utilisation de l’IA joue un rôle important pour présélectionner les candidats en fonction de facteurs objectifs fondamentaux.
Au-delà de l’Entrée express
La portée de l’utilisation de l’IA devient plus problématique au-delà du système Entrée express basé sur les points.
De nombreuses provinces continuent d’avoir recours à un système d’application sur papier pour les programmes d’occupation à la demande touchant les immigrants qualifiés et semi-qualifiés.
On peut se demander si l’intelligence artificielle peut devenir un outil fiable pour traiter ces types d’applications.
Son utilisation devient plus problématique lorsqu’on évalue les immigrants qui cherchent un refuge pour des raisons humanitaires.
L’IA, devrait-elle être utilisée pour choisir entre un immigrant qui a démontré des circonstances convaincantes pour demeurer au Canada et un autre demandeur susceptible de présenter un danger pour la vie en cas d’expulsion?
De plus, les demandes de visa de touriste ou de visiteur, qui dépassent 20 millions de dollars par an, sont évaluées selon que le demandeur est susceptible de quitter le Canada à la fin de la validité du visa.
Divers facteurs, allant des ressources financières aux liens avec le pays d’origine, sont pris en compte pour parvenir à la décision.
Les taux de refus dépassent désormais 25% sur la base d’une évaluation des risques qui ne peut pas encore être réalisée avec l’IA.
Équilibrer la transparence avec la manipulation systémique
Les raisons éthiques et morales à part, le fait de trop compter sur l’IA pour poursuivre la politique d’immigration au Canada pourrait entraîner un système défectueux avec des considérations contradictoires. Le droit d’interjeter appel d’une décision en matière d’immigration fait partie intégrante du processus existant.
Mettre les décisions d’immigration fondées sur l’IA en examen judiciaire entraînera un conflit évident entre le maintien de la transparence et la sauvegarde des données et des algorithmes utilisés pour décider.
Si les algorithmes sont tenus secrets, le système entier deviendra opaque et il sera impossible de savoir pourquoi une décision a été prise.
Cela rendra impossible de déterminer si la bonne décision a été prise.
Cependant, si la publicité est faite, l’immigration sera réduite à une étape par étape. Du choix des cours à la programmation de l’application, tricher le système deviendra la norme.
Employeurs intéressés : veuillez nous contacter pour recevoir de plus amples informations.
Candidats intéressés : découvrez si vous êtes admissible au Canada en remplissant notre évaluation gratuite en ligne. Nous vous fournirons notre évaluation dans les 1 à 2 jours ouvrables.
Lisez plus de nouvelles sur l’immigration au Canada en cliquant ici.