Ces derniers jours Google a franchi une étape importante dans
direction de la transparence des images générées par
intelligence artificielle avec la présentation de SynthID,
un outil de marquage et d’identification pour l’art génératif.
La technologie, lit-on sur le blog de DeepMind, s’intègre directement dans les pixels
;
lit-on sur le blog de DeepMind, intègre directement dans les pixels de l’image un « watermark » ou filigrane numérique invisible
;
de l’image un « filigrane » ou un filigrane numérique invisible
à l’œil humain. SynthID sera initialement introduit pour un nombre limité
nombre limité de clients utilisant Imagen, le générateur d’art de Google ;
disponible dans la suite d’outils en nuage AI.
L’art génératif a d’emblée posé un certain nombre de problèmes éthiques,
comme la création de ce que l’on appelle des deepfakes. L’image
virale du pape en version hip hop, créée avec MidJourney, est un
exemple goliardique de ce qui pourrait se répandre avec les outils de l’IA
;
générative : il n’est pas difficile d’imaginer qu’au lieu d’une image
irrévérencieuse mais, en fait, inoffensive, puisse au contraire diffuser de fausses
une information qui n’est crédible que parce qu’elle semble
avoir été prononcées par telle ou telle personnalité publique.
En juillet dernier, à l’issue d’une réunion à la Maison Blanche, sept entreprises qui
qui opèrent dans le domaine de l’IA (y compris, outre Google lui-même, également Meta,
Microsoft et OpenAI) ont entrepris de développer des systèmes de
systèmes de balisage pour indiquer le contenu créé avec des technologies génératives, et
Google est le premier d’entre eux à annoncer la mise en œuvre de ce
système avec SynthID.
DeepMind explique que le filigrane est intégré directement dans les pixels
de l’image générée par l’IA, ce qui la rend reconnaissable mais n’altère pas
altérer sa perception visuelle pour l’utilisateur. Aucun détail technique particulier n’est révélé
aucun détail technique particulier n’est divulgué, probablement pour éviter la possibilité que des
d’outils capables de contourner le système. De Mountain View,
cependant, il est rassurant de savoir que le filigrane ne peut pas être facilement
avec de simples modifications de l’image, bien que Google admette que
qu’il ne s’agit pas d’une solution infaillible, en particulier contre
manipulations extrêmes.
Comme l’expliquent les responsables sur le blog de DeepMind Sven Gowal et Pushmeet
Kohlila complexité du système consistait à trouver le bon équilibre entre la non-perceptibilité du filigrane et la robustesse du filigrane ;
juste équilibre entre la non-perceptibilité du filigrane et la robustesse
à la manipulation. SynthID a été conçu pour ne pas compromettre la qualité
qualité de l’image, restant détectable même après des modifications telles que
filtres, des changements de couleur et la compression typique de certains
algorithmes tels que JPEG.
SynthID est basé sur une paire de modèles d’apprentissage profond : un pour
l’étiquetage et l’autre pour l’identification des images générées par l’IA.
Les deux sont entraînés sur des ensembles de données hétérogènes, jusqu’à ce qu’ils soient combinés en un
modèle ML unique et optimisé, comme l’expliquent Gowal et Kohli. L’entreprise
prévoit également d’étendre le système de marquage à d’autres modèles pour
générer du texte, de la vidéo et de l’audio.
Il convient toutefois de noter qu’une telle technologie pourrait
;
nécessiter des mises à jour constantes, car elle ouvrirait une phase dans laquelle
les pirates informatiques, les cybercriminels et les personnes malveillantes cherchent des moyens de contourner
filigranes ou, à l’inverse, de les reproduire pour discréditer des images réelles
Google a toujours l’intention de mettre SynthID à la disposition de tiers pour
améliorer la transparence dans le secteur de l’IA.