yào要ràng让AIwèi为wǒ men我们fú wù服务,tā它jiù就bù néng不能jiǎ zhuāng假装zì jǐ自己shì是rén人
L’auteur estime que, si l’IA doit vraiment aider les êtres humains, elle ne doit pas faire semblant d’être identique à eux.
Beaucoup d’entreprises technologiques pensent d’abord à gagner de l’argent, et non à protéger les utilisateurs ; les gens devraient donc rester prudents face à l’IA.
L’IA n’est pas non plus neutre, car elle est créée par des humains et peut aussi apprendre les biais déjà présents en ligne, comme les inégalités entre les sexes, la discrimination raciale et l’écart entre riches et pauvres.
Ainsi, les résultats donnés par l’IA peuvent sembler très « intelligents », alors qu’en réalité ils ne font peut-être que reformuler d’anciens problèmes.
L’IA peut traiter très vite beaucoup d’informations et écrire comme un humain, mais elle ne comprend pas vraiment la vie, les émotions et les relations humaines.
Elle ne se soucie pas des autres et ne peut pas assumer la responsabilité de ses décisions.
C’est pourquoi, dans des domaines importants comme l’éducation, la santé, la recherche d’emploi, la police et la guerre, nous ne pouvons pas laisser facilement les décisions à l’IA.
Nous devons aussi demander tôt et clairement : qui a créé ce système ?
Comment fonctionne-t-il ?
Qui en tirera profit ?
Qui devra assumer les mauvaises conséquences ?
Ce n’est qu’en tenant responsables les entreprises et les institutions puissantes que la technologie pourra devenir plus juste et ne pas nuire à la dignité et à la vie humaines.