Check out our new

BLACKPINK

search engine!

Blog

ICONO is commited to support creatives from all over the world. Read here a series of interviews of some of the world's most inspiring visionaries.
Back
David Raichman, Executive Creative Director chez Ogilvy
“On va rentrer dans une ère complètement hybride.”

Régulièrement, ICONO interview des artistes, créatifs, et leur rapport à la technologie et l’IA. Aujourd’hui, nous interviewons David Raichman, Executive Creative Director chez Ogilvy. Après avoir utilisé l’IA générative pour La Laitière, Mass Hysteria ou encore ses projets personnels sous le nom de Dave The Preacher, David Raichman nous parle de son parcours, et pourquoi l’IA n’est qu’une continuité de sa démarche artistique.

On va commencer par ton parcours et comment tu en es venu à l’IA. Est-ce que tu avais un background technique là-dedans ou est-ce que ça t’est venu par nécessité ?

J’ai fait un cursus littéraire et scientifique. J’ai terminé dans un master en computer science et en logique. Je me suis intéressé à la déduction naturelle et à toute la théorie du raisonnement dans ma grande jeunesse. Je suis largement dans ce délire depuis le début. Après, je me suis toujours intéressé à cette problématique dans mon industrie qui était : comment on peut innover, comment on peut faire des trucs. C’est assez naturellement que je suis arrivé à me pencher sur le sujet.

Aujourd’hui, c’est quelque chose que tu utilises pour tes créations personnelles et avec certains de tes clients. Je me rappelle notamment La Laitière. Est-ce qu’aujourd’hui, tu as l’impression que l’IA a impacté tout le processus créatif ou que ça dépend beaucoup des marques ou de campagnes précises ?

Ça dépend des agences déjà. Aujourd’hui c’est plutôt les IA visuelles qui fonctionnent bien, pour présenter ses idées, dans la conception. En revanche, les IA type textuel sont beaucoup moins appréciées parce qu’elles ne fournissent pas toujours des choses intéressantes. C’est plus ça qui a changé en agence. Dans la production, ça change aussi. Après, l’une des raisons pour laquelle ça a été assez mis en partie conception et pas dans la réalisation finalisée, c’est parce qu’il y a eu les problématiques de legal action sur toutes les grandes IA du marché. C’est en train de changer puisqu’on a Getty, Adobe, tous les acteurs du milieu qui proposent des solutions légales. Ça veut dire qu’on se rapproche d’un moment où ça pourra être dans la production finale.

Aux États-Unis, la jurisprudence fait qu’une image générée par IA ne peut pas être copyrightée. Est-ce que tu penses que ça va poser des problèmes dans la production ?

Oui, mais la jurisprudence ne concerne que le cas d’une image qui a été mise dans un procédé totalement sans aucune intervention humaine. C’est sur ce cas-là qu’il y a une jurisprudence. Dans la plupart du travail qu’on fait aujourd’hui, il y a une intervention humaine considérable. Les utilisateurs lambda voient toujours le fait qu’ils vont taper un chat sur un skateboard et ils vont avoir l’image.

C’est marrant, j’étais en train de regarder la page d’un artiste que j’aime bien et que je respecte beaucoup en IA. Il a posté hier une petite image. Il y a énormément de travail fait en aval. Il y a de la typographie, de la colorimétrie, etc. La défense du copyright peut revenir à partir du moment où il y a une intervention humaine massive.

On voit bien que tu considères l’IA comme un outil utilisé par des artistes. J’ai l’impression que tu fais pas mal d’inpainting dans tes dernières créations avec Dave The Preacher. Tu utilises des images qui existent déjà et que tu modifies par IA ?

Non, c’est toujours moi qui génère. C’est juste que mes procédés sont très complexes maintenant. Ça ne ressemble toujours pas à ce que tu vois dans la norme. Je n’utilise pas midjourney parce que je crée mes propres LORA. J’avais fait ça l’année dernière pour mon expo. Je n’avais pas fait un LORA parce que les LORA n’existaient pas. J’avais fait un training. Maintenant, je fais des LORA avec mes photographies. Je génère des photos avec ces LORA qui deviennent extrêmement bizarres, qui touchent les gens. Ça reste toujours la création générée par IA.

Le procédé que j’utilise est de plus en plus complexe. Je vois beaucoup d’artistes qui utilisent midjourney et qui font beaucoup de buzz. Ils reprennent la tour Eiffel, le pont de Londres, et ils le mettent en rose avec des emballages. C’est une trend. Il y a beaucoup de gens qui font ça. Je considère que c’est conceptuellement rigolo, c’est du buzz. Je pense que ça adhère à une pop culture, c’est de l’art pop.

Je suis plus dans cette veine où je cherche à exprimer des choses très particulières que j’ai en moi. Pour le faire, j’ai besoin de travailler longuement avec des IA différentes de midjourney qui, pour moi, malgré l’évolution des versions, ne rend pas suffisamment bien. En tout cas, c’est très capricieux.

Et à l’inverse, tu as Dall-E 3 qui est extrêmement rigoureux : on lui donne un prompt, et ça fait un résultat très froid. C’est pas mal, mais c’est hyper froid.

Aujourd’hui, la seule bonne alternative, c’est celle de stable diffusion avec tout le bordel qui est autour. Pour mes besoins personnels, je fabrique vraiment avec. Quand j’ai une vision dans ma tête, je reste complètement dans une image que j’ai et je veux la faire. C’est assez technique.

Comme tu disais, tu as beaucoup de trends d’aujourd’hui qui viennent d’outils très simples à utiliser. Est-ce que tu as l’impression qu’on va s’éduquer à ces trends-là ? On va reconnaître que ça, c’est généré par midjourney et ça se voit, ça c’est généré par Dall-E et ça se voit, et que finalement, on va se fatiguer de ces esthétiques-là ?

On se fatigue des esthétiques comme tout. Au-delà de juger la technique, il faut juger l’art pour ce que c’est et l’image pour ce qu’elle est. Quand tu as une trend qui apparaît, c’est super, mais soit tu sors dessus et tu fais du buzz et c’est très bien, soit tu t’en dégages complètement et tu crées ton esthétique, ta manière de faire.

La réponse, c’est que oui, les gens vont voir des choses, des visages cachés dans une photo, là c’est la dernière trend, mais je ne te cache pas que publicitairement, ça m’intéresse. Là, je vais faire une opé là-dessus, ça sort la semaine prochaine, lundi. Mais pour être honnête, ce n’est pas de l’art. C’est vraiment de la tendance.

Les gens se fatigueront à partir du moment où tout le monde fait toujours pareil. C’est à toi d’être différent. Tu peux avoir une image, un grain, une émotion que peu font et qui va faire que toi, tu vas pouvoir émerger. Tout l’enjeu est là, c’est comment tu n’es pas comme les autres.

Justement, tu disais que tu créais des LORA. Pour créer des LORA, il faut avoir un dataset d’images. Est-ce que tu travailles avec tes propres images ou est-ce que tu crées des datasets ?

C’est toujours mon même délire. Je fais des trainings sur mes propres fonds. J’en ai tellement.

Ça m’arrive aussi d’aller parfois shooter pour faire un LORA, d’aller prendre certaines choses, des visages, de prendre plusieurs expressions. Tout dépend.

En fait, ce qui est génial avec un LORA, c’est que tu peux le doser, tu peux faire pas mal de choses avec ça. Parfois, c’est un tout petit peu de LORA que tu ajoutes et que ça va te donner des expressions du visage complètement folles. Personne ne le voit, mais on le ressent. C’est ça qui fait que tout à coup, les visages ne sont pas froids, mais tu vas avoir un truc bizarre qui apparaît. Ça vient d’une photo qui a été faite pour un LORA et personne ne le sait.

Justement, tu as 20 ans de photos derrière toi. Tu as des archives qui sont énormes. J’imagine que tu ne crées pas un LORA à partir de toutes tes images à chaque fois.

Ah oui, non. C’est des séries, des gens, des lieux. Il faut des unités pour un LORA.

J’ai toujours été un peu maniaque. Je fais souvent des photos du même endroit ou des mêmes gens, je prends 50 photos de la même personne, je les prends sous tous les angles avec des habits un peu différents, des expressions… C’est ça que j’utilise en fait. Sinon, tu n’as aucun rendu intéressant.

Donc, en conclusion, entre guillemets, pour toi, la création en physique, ce n’est toujours pas fini : utiliser l’IA n’empêche pas de continuer à faire des photos.

On va rentrer dans une ère complètement hybride. C’est-à-dire avec des shoots spéciaux pour l’IA, avec moins de matériel, moins de fonds verts, moins de machins. Il y aura toujours des trucs un peu fous que des gens feront avec de l’IA. Mais de toute façon, c’est un toujours un minimum de post-production.

Je ne pense pas du tout que ça évoluera dans un tout IA où les gens seront tous derrière leur ordinateur avec juste des prompts. Les outils de productions traditionnels, je pense par exemple à DaVinci Resolve, vont évoluer pour pouvoir travailler avec l’IA.

ICONO is an AI video search engine designed by and for creatives.
Use it to find any shot based on their visual content.
It's as simple as that.