Il y a de nombreux appels aujourd’hui pour mettre en place un système obligatoire pour reconnaître ce qui a été généré par une IA (intelligence artificielle), que ce soit du texte, des images ou autres choses.
À mon sens, créer un système qui vérifie ce qui a été généré par une IA est peine perdue, et c’est déjà trop tard ; de nombreuses solutions en circulation libre peuvent s’affranchir et s’affranchiront des systèmes de contrôle.
À la base, il y a une erreur d’approche. On ne certifie pas le faux, cela n’a pas de sens. On certifie le vrai. On ne demande pas aux faussaires de certifier que leurs billets sont faux ; on invente des systèmes pour certifier qu’un billet est vrai. Et c’est la même chose pour les œuvres d’art, la littérature, les photos ou les films. Pour limiter les dégâts de l’intelligence artificielle, il faut une solution qui certifie l’authenticité de l’œuvre.
Pour prendre un exemple concret, un système d’authentification du vrai est faisable par les fabricants de smartphones. Par son contrôle matériel et logiciel, Apple pourrait fournir une solution certifiant qu’une photo a bien été prise par un iPhone, résolvant ainsi une partie du problème du « fake ou pas fake ». Une modification de la photo comme un rognage ou un changement des couleurs pourrait garder un lien vers la photo originale pour en certifier l’authenticité. Un tel système aurait une très grande valeur, par exemple pour les journalistes.
Bien sûr, tout n’est pas aussi simple. Pour le texte, par exemple, la mise en place d’une solution de certification est bien plus difficile (voire impossible ?). Mais cela vaut la peine de se pencher sur ce concept. Et je suis convaincu que certifier le vrai est la bonne approche.