Suite à mon article concernant les vidéos d’intelligence artificielle qui utilisent les voix du pape Léon XIV et des pasteurs éminents pour promouvoir des enseignements hérétiques, mon amie et correspondante Carole Lavoie a partagé avec moi un article de Rhoda Wilson qu’il a publié aujourd’hui même sur le site Web The Exposé. Le chroniqueur écrit dans son introduction : « Le modèle de génération de vidéos IA Veo 3 de Google a été soumis au test “Will Smith mangeant des spaghettis”, qui est devenu une mesure populaire pour évaluer le réalisme des vidéos générées par l’IA. Des utilisateurs ont créé des vidéos de Will Smith mangeant des spaghettis avec Veo 3, et les résultats ont montré une nette amélioration du réalisme. Ces vidéos sont si réalistes qu’elles ont suscité des inquiétudes. Les gens devront entraîner leurs yeux à repérer les contrefaçons. » Moi-même, j’ai partagé dans mon article une vidéo créée par Fusion Kidd qui nous montre d’anciennes images du fameux festival de musique Woodstock (août 1969) qui ont été générées numériquement pour leur donner vie. J’écrivais :
« On se croirait immergé dans ce rassemblement emblématique de la culture hippie, comme si on y était. On peut même se demander si les gens que l’on voit dans cette vidéo n’ont pas fait exactement ces mouvements dans la vraie vie. C’est comme si l’on redonnait vie aux morts à partir d’images statiques. Nous savons bien que les vidéos générées par l’IA ne sont pas parfaites et qu’elles comportent des défauts. Mais nous savons aussi que ces défauts disparaîtront dès que les avancées technologiques se multiplieront. Malgré ces imperfections, ces vidéos peuvent facilement tromper les gens et les induire en erreur. Et imaginez un instant les gens du futur qui les regarderont. Croiront-ils qu’elles correspondent à la réalité du passé ? Croiront-ils assister à un reportage véridique, extrait de séquences réelles ? C’est à ce moment que nous pourrons parler d’altération de l’histoire. »
Je partage donc avec vous cet article du rédacteur Rhoda Wilson qu’il a publié sur le site internet The Exposé,― comme par hasard ―, dès le lendemain de mon propre article. The Exposé a été créé en raison du manque d’alternatives aux médias traditionnels mensongers, et de l’absence d’alternatives qui ne rapportent que les faits. D’autres médias alternatifs se contentent de publier des articles étayés par des preuves inexistantes ou douteuses. Tandis que les médias traditionnels refusent tout simplement de publier la vérité ou publient des demi-vérités, déformées pour correspondre au discours des autorités mêmes qui les financent par les frais de publicité liés à la propagande. ◼
➽ Will Smith mangeant des spaghettis en 2023 et en 2025
Le 27 mars 2023, un utilisateur de Reddit nommé « chaindrop » a partagé une vidéo générée par l’IA de Will Smith en train de manger des spaghettis. Toutes les images et la vidéo ont été générées à l’aide de Stable Diffusion, un modèle de conversion texte-image basé sur l’apprentissage profond, lancé en 2022 et basé sur des techniques de diffusion. Stable Diffusion intègre les modèles texte-vidéo de ModelScope à son interface web.
Comme l’a noté ARS Technica, « à l’époque, l’exemple de Smith n’était pas le meilleur générateur de vidéo IA existant – un modèle de synthèse vidéo appelé Gen-2 de Runway avait déjà obtenu des résultats supérieurs (bien qu’il ne soit pas encore accessible au public) ».
À l’origine, la vidéo était muette. Des sons ont été ajoutés ultérieurement pour créer cette version. D’après la description sous la vidéo sur YouTube, les voix ont été générées avec Elevenlabs.
N’importe qui aurait pu deviner que la vidéo avait été générée par l’IA grâce aux mouvements de mains impossibles et aux contorsions faciales grotesques. Ayant suscité un vif intérêt à l’époque, cette vidéo est devenue la référence informelle pour comparer les vidéos générées par l’IA.
Le 20 mai, Google a lancé Veo 3, un nouveau générateur vidéo basé sur l’IA. Le développeur d’applications d’IA Javi Lopez a été le premier à réaliser le « test de Smith » et a publié ses résultats sur Twitter (désormais X) deux jours plus tard. À l’exception des bruits de craquement que l’IA insère par erreur, comme si manger des spaghettis ressemblait à croquer des légumes crus, l’IA peut générer un « double de Will Smith faisant tournoyer des linguine avec fluidité », comme le décrit Quartz.
« Il ne s’agit pas de la progression technologique régulière à laquelle nous sommes habitués. C’est un saut vertigineux qui laisse les experts, les cinéastes et la société dans l’incapacité de comprendre ce qui vient de se passer. Le passage soudain de vidéos d’IA manifestement fausses à des contenus synthétiques quasiment indiscernables représente l’une des avancées technologiques les plus spectaculaires de l’histoire récente », a déclaré Quartz.
Certains semblent ravis de ce développement, comme Endrit, passionné d’IA : « Vidéos IA en 2023 vs 2025. Nous avons tous ri en voyant Will Smith manger des spaghettis. Maintenant, regardez la qualité dont nous disposons aujourd’hui. Ce n’est pas parfait, mais si l’IA peut y parvenir en moins d’un an, imaginez ce qui sera possible dans les prochaines années, voire les prochains mois… Le Veo 3 de Google est FOU ! »

Cependant, les problèmes pour le monde sont évidents, comme le résume Joe Harker sur le site internet LADbible : « Une fois que l’IA pourra créer des vidéos impossibles à distinguer de la réalité, nous serons peut-être irrémédiablement foutus. »
Forbes a averti que la théorie de l’Internet mort est en train d’arriver, notant que non seulement des vidéos réalistes entières peuvent désormais être générées par l’IA, mais que « l’IA est également utilisée pour les filtres de visage, transformant de vraies vidéos en deep fakes, rendant la tromperie d’autant plus difficile à repérer », a déclaré le média.
« Les utilisateurs des réseaux sociaux devront s’entraîner à repérer les faux, mais tout le monde n’y parviendra pas, et la culture du scrolling n’incite pas à un examen attentif », a déclaré Forbes. Ajoutons que les réseaux sociaux ne sont pas les seuls supports où les faux seront utilisés. Les médias institutionnels connus pour diffuser de la propagande et mener des opérations psychologiques devraient également être scrutés à la recherche d’images et de vidéos générées par l’IA. ◼
Abonnez-vous à ma lettre d’information
Et recevez un code de réduction de 40 % pour l’adhésion à mon Club VIP.
En tant qu’auteur et chroniqueur indépendant, Guy Boulianne est membre du réseau d’auteurs et d’éditeurs AuthorsDen et de la Nonfiction Authors Association (NFAA) aux États-Unis. Il adhère à la Charte d’éthique mondiale des journalistes de la Fédération internationale des journalistes (FJI).






Je pense qu’à terme, on nous proposera des programmes informatiques qui peuvent analyser une image ou un film et déterminer si c’est effectivement de l’IA ou si c’est vrai.
Je crois bien que ces programmes informatiques existent déjà. Le problème est que ce n’est pas tout le monde qui les connaîtra et, en attendant, l’intelligence artificielle fera ses ravages.
N’oubliez pas qui si de fausses images (ou vidéos) diffamatoires ou incriminantes sont diffusées parmi le public sur internet, il sera très difficile d’y remédier. Autrement dit, le mal sera fait.
LES VIDÉOS IA DEVIENNENT FOLLES ! (VEO 3) Des vidéos IA ultra-réalistes. Mieux que Chat GPT et SORA AI !
Découvrez la nouvelle frontière de la vidéo générative avec VEO 3, le moteur d’IA révolutionnaire qui transforme en quelques secondes des messages textuels en séquences cinématographiques époustouflantes. Aujourd’hui, je présente plus de 50 clips inédits : des plans de nature hyperréalistes, des décors de science-fiction épiques, des animations stylisées et des séquences au ralenti d’une fluidité irréprochable, tous entièrement créés par le pipeline de rendu neuronal de VEO 3. Si vous vous êtes déjà demandé jusqu’où l’intelligence artificielle peut pousser la narration créative, cette compilation vous répond avec des détails saisissants.
Pourquoi VEO 3 révolutionne tout :
• Réalisme par lancer de rayons à la demande : la diffusion avancée et la fusion NeRF créent un éclairage, des ombres et des reflets d’une précision physique si élevée que vous mettrez la vidéo sur pause juste pour les admirer. • La 4K native avec conversion ascendante 8K en option garantit une netteté exceptionnelle de chaque image sur tous les appareils.
• Contrôle de caméra cinématographique : match-move, travelling-zoom, balayages aériens par drone, macro-racks, parallaxe d’anime ; il suffit de décrire le plan et VEO 3 cadrage parfaitement à chaque fois.
• Transfert de style en un clic : mélangez étalonnage hollywoodien, coups de pinceau picturaux, ombrage de celluloïd d’anime ou minimalisme photoréaliste sans intervention d’un compositeur.
• Montage instantané en temps réel : ajustez l’ambiance, l’objectif ou l’environnement à la volée et regardez la scène se régénérer en quelques secondes. Fini les marathons de rendu.
Ce que vous verrez dans cette vidéo :
▸ Couchers de soleil volumétriques sur des vagues déferlantes dignes d’un documentaire animalier.
▸ Paysages urbains futuristes animés par des enseignes au néon, des rues détrempées par la pluie et des voitures volantes slalomant entre les gratte-ciel. ▸ Gros plan sur un produit B-roll où le métal liquide épouse parfaitement les contours du logo, idéal pour les publicités et les animations graphiques.
▸ Des créatures fantastiques prennent vie grâce à une peau diffusant sous la surface, une physique de fourrure réaliste et une simulation musculaire dynamique.
▸ Des séquences d’anime dessinées à la main, parfaitement intégrées dans un générique de studio sans une seule image de nettoyage traditionnel.
Chaque rendu a été capturé directement depuis le tableau de bord de VEO 3, sans aucun effet visuel externe. Observez la cohérence des mouvements image par image, un aspect que les anciens modèles texte-vidéo avaient du mal à gérer. VEO 3 maintient les objets verrouillés, les visages stables et l’éclairage cohérent, même lors de panoramiques et d’insertions complexes.
GOOGLE VEO 3 : Comment créer une vidéo avec une IA 100% Réaliste (C’est Incroyable !!!).
PLUS DE 130 MEILLEURES VIDÉOS IA (VEO 3) Hyper réalistes ! Mieux que Chat GPT, Midjourney et SORA ! 2025
Que vous regardiez un couple aux cheveux bouclés dériver sur une colline sombre ou un panorama VR à 260 degrés sur un sommet enneigé, VEO 3 redéfinit sans cesse le concept de « photoréalisme » en vidéo IA. Ce nouveau modèle intègre des rendus 4K natifs de 8 secondes, un éclairage volumétrique et des cartes de profondeur en temps réel, permettant aux créateurs solo de réaliser des mouvements de caméra qui nécessitaient auparavant des grues et des drones. Les premiers clips de test, y compris la démo de lévitation de Google, présentent un grain chaleureux de type Kodak Vision3, un subtil effet de porte et une physique ultra-légère, tout en conservant une optique authentique. Vous bénéficiez également d’une passe EXR 16 bits étendue permettant à DaVinci Resolve Fusion ou After Effects de séparer la profondeur Z pour les composites match-move, ainsi que de métadonnées stockant les matrices de caméra par image pour les pipelines de production virtuelle.
Mais VEO 3 n’est pas le seul nom à révolutionner le mouvement. OpenAI Sora boucle désormais des plans 1080p de 30 secondes avec des masques modifiables ; Runway Gen-4 mise fortement sur l’in-paint orientable et la synchronisation audio ; Kling 2.0 produit des séquences d’action 4K de qualité anime ; Pika 2.2 s’impose en vitesse pure pour les créateurs de vidéos verticales ; et Dream Machine de Luma offre un bokeh stylisé qui rivalise avec les véritables anamorphoses. Les testeurs ayant réalisé des tests comparatifs (« J’ai essayé tous les générateurs vidéo IA » sur YouTube est un excellent point de départ) classent systématiquement VEO 3 en tête pour son réalisme brut, mais ils privilégient toujours Gen-4 ou Sora pour une narration précise à l’image près ou des durées d’exécution plus longues.
Au-delà des images animées, la pile qui les entoure est en pleine expansion. Apple Intelligence a intégré iOS 19 ce printemps, intégrant des modèles multimodaux locaux directement dans le pipeline de la caméra pour un étalonnage sémantique sans décalage. Gemini Ultra Live peut superposer des éléments génératifs aux séquences VEO en temps réel ; les plug-ins ChatGPT exportent les listes de plans directement vers les préréglages d’invite VEO ; et Suno v3 auto-score avec un son spatial qui suit les repères de profondeur à l’écran. Même les incontournables de la productivité comme Canva Magic Studio, Otter AI et Gamma font désormais apparaître des « moments vidéo » qui extraient le b-roll IA de votre brouillon en quelques secondes. Si vous cartographiez l’écosystème, la liste des 40 outils d’IA les plus utilisés en 2025 de G2 est un aide-mémoire à ajouter à vos favoris.
Où commencer à regarder ?
• « Rain-soaked Tokyo Neon » de PixelStitcher — VEO 3 maîtrise parfaitement les reflets des flaques d’eau au pixel près.
• « Studio-scale Music Video on a Phone » de CineGen — Le composite Runway Gen-4 + Sora prouve que la capture mobile est obsolète.
• « One-Shot VR Flashback » de XR-Lab — Export à 260 degrés de VEO 3 intégré à un clip Quest.
• « Cyber-punk Metropolis » de Pika Collective — La mise à jour 2.2 montre que la 4K n’est pas nécessaire pour obtenir une performance cinématographique.
Ouin mais mélange pas ceux que Will Smith a fait lui même pour ressembler à l’AI (et ils sont très drôle). Mais oui c’est de mieux en mieux. Le futur va être très fake.
Hum … Je ne mélange rien. Voici les vidéos que Will Smith a fait en 2024 :
Le bout dans ton premier vidéo qu’on voit Will Smith est-il réellement de l’AI où un des vidéos qu’il a lui même fait? Enfin, pas important tu as raison : c’est de mieux en mieux et ils nous tromperont avec ça (et c’est sans doute déjà le cas).