Le résultat des IA est spectaculaire, chacun-e en a fait l’expérience avec ChatGPT, mais le terme d’ « intelligence » artificielle est trompeur. Les algorithmes ne produisent que des résultats vraisemblables basés sur ce qui existe déjà et les erreurs restent fréquentes : mains à six doigts ou contre-vérités historiques.

Un esprit humain filtre les contenus qu’il produit en tenant compte de la vraisemblance, mais surtout de la vérité. S’il représente le non-existant dans le cadre d’une fiction, il s’agit d’un choix conscient. De son côté, l’IA est limitée au vraisemblable ; pour elle, la vérité n’importe pas. Rendre sa place à la notion de vérité est un enjeu crucial alors que le déchirement de la société est accéléré par la prolifération des fake news. Même si ce sujet est jeune et complexe, le monde politique doit s’en saisir !

S’il semble irréaliste d’exiger des entreprises d‘IA d’en évaluer les productions sous l’angle de la vérité, le politique doit au moins exiger que ces contenus soient explicitement labellisés « généré artificiellement ». Cette solution basée sur la transparence permet au public de suspendre son jugement le temps d’exercer son sens critique. L’enjeu se situe donc dans l’éducation numérique à l’école obligatoire, mais aussi pour toute la population.

Ainsi, même si ce texte n’a pas été rédigé par ChatGPT, appliquez, chère lectrice ou cher lecteur, la méthode critique. Confrontez-le à d’autres sources et établissez par vous-même ce qu’il convient de croire ou non. Répéter régulièrement cet exercice reste notre meilleure carte pour résister aux problématiques sociales posées par l’intelligence artificielle.

le politique doit au moins exiger que ces contenus soient explicitement labellisés « généré artificiellement ». Cette solution basée sur la transparence permet au public de suspendre son jugement le temps d’exercer son sens critique
Emile Blant, Candidat au Conseil national, Député