rén gōng zhì néng人工智能mó xíng模型zěn yàng怎样yǐng xiǎng影响dī zī yuán低资源yǔ yán语言shè qū社区
De nombreux produits d’IA disent qu’ils peuvent aider les gens à apprendre, travailler et vivre.
Mais pour les locuteurs de nombreuses langues peu utilisées, ce n’est pas le cas.
Aujourd’hui, beaucoup de grands modèles de langage traitent beaucoup mieux l’anglais et fonctionnent souvent mal avec les autres langues.
Par exemple, si quelqu’un veut écrire un e-mail en tamoul, le système peut produire un paragraphe en anglais plein d’erreurs et peu clair.
Ainsi, les utilisateurs peuvent avoir l’impression que ces outils ne sont pas fiables et ne plus vouloir les utiliser.
Ce problème n’affecte pas seulement le travail et le fait de gagner de l’argent, mais aussi la culture.
Les idées et les valeurs présentes dans de nombreux outils d’IA ressemblent souvent davantage à celles des pays anglophones et ne représentent pas très bien la vie et les points de vue d’autres régions.
Certaines personnes essaient d’aider les langues à faibles ressources en créant davantage de contenu en ligne, mais une partie de ce contenu est elle-même une traduction automatique pleine d’erreurs ; ensuite, l’IA l’utilise pour apprendre, ce qui aggrave encore le problème.
Pour changer cette situation, les grandes entreprises devraient collaborer avec ces communautés linguistiques et vérifier soigneusement le contenu et les réponses, afin que l’IA puisse vraiment aider davantage de personnes au lieu de servir seulement quelques-unes.