Adobe lance un label universel pour identifier les contenus générés par l’IA

Adobe lance un label universel pour identifier les contenus générés par l’IA

Le développement des IA génératives est indéniable. De nombreux contenus générés par les IA attirent l’attention des spécialistes et font craindre une augmentation des fausses informations et des deepfakes. Les contenus créés par Midjourney peuvent poser question… à l’instar du pape François en doudoune blanche, de Donald Trump en train de se faire arrêter par les forces de l’ordre ou encore d’Emmanuel Macron ramassant les poubelles à Paris.

C’est pourquoi, Adobe et d’autres entreprises technologiques s’engagent pour plus de transparence.

 

Adobe lance une icône de transparence

Alors que l’IA d’Adobe a été utilisée pour générer près d’un milliard d’images en seulement un mois, Adobe s’engage dans la transparence. L’entreprise, dont le siège social se situe à San José (Californie) a lancé une icône que la firme souhaite démocratiser.

En marge de la conférence Adobe MAX 2023, Adobe a dévoilé une « icône de transparence » permettant d’identifier simplement les contenus générés par l’Intelligence Artificielle.

L’idée est de montrer (grâce à cette icône) si une image, une vidéo ou un fichier PDF a été généré à l’aide d’une intelligence artificielle.

Andy Parsons, directeur de l’initiative sur l’authenticité des contenus chez Adobe, déclare « Nous pensons et espérons qu’il deviendra aussi omniprésent que le symbole du droit d’auteur ou le symbole Creative Commons ».

Le principe est simple. Lorsque l’icône est apposée sur une image, vous avez la possibilité de glisser votre souris dessus pour afficher diverses informations. Vous obtenez alors des indications sur la date de création de l’image, son propriétaire, l’utilisation d’intelligence artificielle dans son élaboration, le type d’IA utilisé… L’ensemble de ces informations est intégré dans les métadonnées de l’image. Ainsi, supprimer l’icône de la photo ne permet pas d’empêcher l’accès aux informations.

L’icône est déjà disponible sur les produits Adobe tels que Photoshop ou Premiere.

 

Lire plus Intelligence artificielle : quel impact sur le travail ?

 

Un symbole développé avec d’autres entreprises pour plus de transparence avec les IA

Le symbole a été conçu dans le cadre de la Coalition for Content Provenance and Authenticity (C2PA). Il s’agit d’un groupe composé d’entreprises technologiques comme Microsoft, Intel, Arm ou encore Truepic. L’objectif est d’établir des normes d’authentification des contenus. Cette coalition utilise donc les initiales « CR » qui signifient Content Credentials, afin d’éviter tout mélange avec l’icône de Creative Commons. La C2PA est propriétaire de la marque déposée de l’icône CR.

L’utilisation de ce symbole n’est pas obligatoire, que ce soit pour les entreprises ou les utilisateurs. Libre à chacun de l’utiliser pour étiqueter le contenu généré avec des outils d’IA.

Adobe a fait savoir que 2 000 entreprises ont déjà accepté l’utilisation du Content Credential. Microsoft, qui fait appel au modèle de Dall-E, l’a par exemple déjà intégré dans les résultats Bing. Nikon et Leica ont également décidé d’utiliser l’icône sur les photos prises par leurs appareils.

 

Lire plusElon Musk lance xAI, une intelligence artificielle pour concurrencer ChatGPT

 

Une initiative parmi d’autres pour identifier les contenus réalisés grâce à des IA

Adobe n’est pas le seul acteur à vouloir s’engager contre les contenus falsifiés. Google a, par exemple, introduit son propre indicateur de contenu baptisé SynthID. Cet indicateur est déjà capable d’identifier les contenus générés par l’Intelligence Artificielle à travers les métadonnées. L’étasunien Digimarc développe de son côté un filigrane numérique permettant d’incorporer des informations dans de nombreux contenus audio, vidéo…

La volonté de réguler les contenus générés par l’Intelligence Artificielle est un réel enjeu de société. Toutefois, la multiplication des initiatives complexifie la tâche. Aucun indicateur n’est encore reconnu par l’ensemble des acteurs politiques et technologiques.

En parallèle de ces initiatives individuelles, plusieurs entreprises, y compris Adobe, ont conclu un accord non contraignant avec la Maison Blanche pour le développement de systèmes de filigranes permettant d’identifier les données générées par l’IA.

 

En définitive, la vérification de l’authenticité des contenus est une préoccupation majeure pour les régulateurs et les responsables politiques. Ce besoin de contrôle s’explique par l’augmentation des inquiétudes suscitées par la prolifération de vidéos et d’images falsifiées avec les Intelligences Artificielles.

Etudiant en M1 à TBS Education - Vice-Président du Petit Tou - Rédacteur Mister Prépa et PGE