- wetheflow
- Posts
- 🧸 Comment se transformer en figurine
🧸 Comment se transformer en figurine
✨ Vibe coding : créer sans savoir coder

Welcome back, chers lecteurs augmentés.
Merci pour tous vos retours que je lis chaque semaine avec un immense plaisir.
Cette semaine, on commence par un tuto complet pour créer une figurine à votre effigie. On parlera d'IA qui trompent les humains, des lunettes à réalité augmentée signée Meta, ou encore la ressurection d’une espèce disparue de loup grace à de la manipulation génétique.
Au menu aujourd’hui,
Temps de lecture estimé : 8 minutes
PHOTO OU IA ?

Pouvez-vous dire quelle image est une vraie photo ? |

Participez au sondage pour découvrir la réponse
Prompt de l’image
Close-up of the eye and face of an animal, like a deer or moose, looking directly into the camera, captured in high resolution with a Canon EOS R5 mirrorless camera lens.

MISE EN AVANT
🧸 Comment se transformer en figurine d’action
![]() | ![]() |
Vous avez sûrement vu passer cette trend : des gens transformés en figurines dans leur boîte, avec des petits objets qui les représentent.
Voici comment le faire vous-même (et facilement) avec ChatGPT.
Ouvrez une nouvelle discussion dans ChatGPT.
Sélectionnez quelques photos de vous.
Essayez de garder un look cohérent (même tenue ou style), ou décrivez ce que vous souhaitez porter.Copiez-collez ce prompt dans le chat :
Crée une image de moi sous forme de figurine d’action dans son packaging. Je suis debout dans un blister transparent, sur un fond en carton brun. Ajoute 3 ou 4 objets représentatifs de ma personnalité à côté de la figurine. Utilise les photos que j’ai fournies pour que la figurine me ressemble. Le rendu doit ressembler à une vraie boîte de collection, avec un style visuel soigné et esthétique.
Et voilà.
Quelques secondes plus tard, vous êtes une figurine collector ✨
![]() | ![]() |
🏇 Aller plus loin en animant votre figurine
Si vous voulez pousser le concept un peu plus loin et animer votre figurine, après avoir testé 6 outils de vidéos par IA différentes, je vous confirme que celui qui comprend le mieux les prompts est KlingAI.
Cette vidéo/gif ci-dessous est composée de 3 séquences :
La première séquence utilise l’image de base comme référence avec ce prompt :
The man figurine starts walking towards the camera in a confident way, while The camera smoothly zooms out
Pour la deuxième séquence, j’ai fait une capture de la dernière image pour l’utiliser comme point de départ et lui ai donné ce prompt :
The man figurine stops walking, a microphone is throwned at him, he catches it and start talking and walking like he's on a stage
Enfin, pour avoir un effet de loop sur la troisième séquence, j’ai donné la dernière image de notre deuxième séquence comme point de départ ainsi que notre toute première image comme référence de fin, combinées à ce prompt :
The man figurine makes a super jump double flip backward and puts himself nicely back into the box
J’ai assemblé les trois séquences, et voilà !
Vous aimez le résultat ? 👇

TECH NEWS
🧠 Les IA passent (officiellement) le test de Turing

You start on monday
⏭️ Une prouesse symbolique — Des chercheurs de l’Université de San Diego ont montré que des IA comme GPT-4.5 réussissent désormais à convaincre des humains qu’elles sont… humaines. Lors de conversations de 5 minutes, GPT-4.5 a trompé les juges dans 73 % des cas, en se faisant passer pour une personne réelle.
💬 Le test, version 2024 — Créé en 1950, le test de Turing visait à évaluer si une machine pouvait se faire passer pour un humain dans une discussion textuelle. Ici, les juges comparaient une vraie personne à une IA, en parallèle, sur des sujets simples du quotidien. Les modèles qui jouaient un rôle ont particulièrement bien réussi, notamment celui de “je suis une étudiante introvertie”.
My take - Rien de très étonnant
Ce test a longtemps été un repère dans l’histoire de l’IA, mais à ce stade, ce n’est plus très étonnant. Les modèles progressent tellement vite qu’on a déjà dépassé les critères de 1950.
Le vrai défi aujourd’hui est peut-être plus d’apprendre à identifier ce qui est généré par une machine.
Mais là encore, une nuance s’impose : Dans un monde ou le contenu généré par IA est omniprésent, on peut se demander si les futures générations attacheront moins d’importance (que nous) au fait qu’un contenu ait été généré par un humain.
🕶️ Meta prépare ses lunettes AR haut de gamme

Do you see what I see?
🦹♂️ Une nouvelle tentative plus ambitieuse — Meta planche sur Hypernova, une paire de lunettes connectées avec écran intégré, prévue pour fin 2025. Contrairement aux Ray-Ban Meta, ce modèle embarquera un petit écran logé dans le coin inférieur du verre droit, pour consulter cartes, messages ou applis, sans gêner la vision.
🖐️ Navigation par gestes et commandes tactiles — Les branches des lunettes réagiront au toucher, et un bracelet gestuel fourni (nommé Ceres) permettra de naviguer dans l’interface à l’aide de mouvements simples comme le pincement des doigts. La puce sera signée Qualcomm, le système basé sur Android.
My take - Le bon timing ?
Le design rappelle fortement les Google Glass, qui ont floppé il y a plus de 10 ans. Mais aujourd’hui, entre IA omniprésente et fatigue numérique, l’idée semble moins farfelue.
Reste un point : le prix, estimé entre 1000 et 1400 dollars. On s’approche clairement du coût d’un smartphone. Est-ce que ces lunettes pourraient le remplacer à terme ? Peut-être. Mais pour l’instant, elles ressemblent davantage à un complément ambitieux qu’à une vraie alternative.

✨ Vibe coding : créer sans savoir coder

Litteraly me, vibing
💫 Une nouvelle ère de la création — Grâce à des outils comme Bolt ou Lovable, il est désormais possible de créer une application sans savoir coder. Cette tendance, surnommée vibe coding, ouvre la porte à une nouvelle vague de créateurs.
🎨 Des applis construites sur une idée — Aujourd’hui, tout le monde peut assembler une app avec quelques clics. Dans un monde où tout le monde peut créer, ce sont les idées originales, surprenantes ou ultra-personnalisées qui émergent.
👨💻 Mais les experts ne sont pas en reste — Les développeurs aguerris bénéficient aussi de cette simplification : avec l’IA qui gère les bases, ils peuvent se concentrer sur des problèmes plus profonds. Le résultat est donc des applications plus avancées, que personne ne pouvait construire seul auparavant.
My take – Le vibe coding est là pour rester
On entre dans une ère où la bonne idée compte plus que le savoir-faire technique. Mais paradoxalement, c’est aussi un moment d’or pour les techniciens : délestés des tâches ingrates, ils peuvent maintenant repousser les limites en ayant besoin de beaucoup moins de ressources.
PAUSE MEME


QUICK NEWS

12 000 ans plus tard
🐺 Réveil ancestral — La startup Colossal Biosciences affirme avoir "ressuscité" le loup géant, éteint depuis plus de 10 000 ans. Grâce à l’édition génétique (CRISPR) et au clonage, trois petits sont nés : Romulus, Remus et Khaleesi. Ils vivent actuellement dans une réserve privée, et la société prévoit de s’attaquer ensuite au mammouth laineux et au tigre de Tasmanie.
Une prouesse technologique, qui pose un débat éthique. L’homme a longtemps été responsable de l’extinction de nombreuses espèces. Est-ce le début d’un retour en arrière ?

Action!
🎬 Une minute de génération vidéo IA avec un seul prompt — Une équipe de chercheurs de l’Université de Berkeley vient de dévoiler une nouvelle technique qui permet de transformer de simples prompts en vidéos d’une minute.
Leur modèle maintient la cohérence des personnages et enchaîne plusieurs plans, là où la plupart des modèles IA peinent encore à dépasser quelques secondes.
Leur démo façon Tom & Jerry vaut le détour, et montre à quel point on approche d’un tournant pour la création vidéo assistée par IA.
