yìn dù印度jiā kuài加快shǐ yòng使用AI:kē jì科技zěn yàng怎样zūn zhòng尊重rén quán人权?
L’Inde utilise maintenant l’IA très rapidement, mais de nombreux problèmes sont aussi apparus.
Le gouvernement a quelques règles sur l’IA, mais beaucoup ne sont pas assez strictes et n’exigent pas de vérifier les risques à l’avance.
Ainsi, certains systèmes d’IA sont utilisés d’abord, puis les problèmes sont découverts plus tard.
Par exemple, de nombreux dispositifs de reconnaissance faciale et de surveillance sont utilisés dans les gares et les villes, et la police utilise aussi l’IA pour observer les foules et repérer des « personnes suspectes ».
Beaucoup de gens craignent que cela nuise à la vie privée, à la liberté et à la dignité humaine.
L’IA est aussi entrée dans les aéroports, les examens et les services publics.
DigiYatra, dans les aéroports, utilise la carte d’identité, la carte d’embarquement et les informations faciales pour aider les passagers à passer plus vite, mais certaines personnes disent que beaucoup de passagers y ont participé sans bien comprendre, et personne ne sait où les données sont stockées ni qui peut les voir.
Certaines femmes enceintes, personnes malades et personnes âgées ne sont pas reconnues par le système parce que leur visage est différent des anciennes photos, et elles ne peuvent donc pas recevoir de nourriture ni d’aide.
L’Inde a de nouveaux projets pour rendre l’IA plus sûre et plus équitable, et certaines personnes proposent aussi de nouvelles lois qui exigent de la transparence sur la manière dont l’IA est utilisée, sur les données qu’elle utilise et sur le nombre d’erreurs qu’elle commet.
Beaucoup de gens pensent que le développement de l’IA ne doit pas se concentrer seulement sur la commodité et la vitesse ; il faut aussi protéger d’abord les droits humains, afin que la technologie aide vraiment tout le monde.