Ghislaine Maxwell au Québec ? Aucune preuve technique d’une génération IA complète ou d’un deepfake facial n’a été détectée dans la vidéo

Depuis une semaine, Internet s’est enflammé suite à des rumeurs concernant la disparition de Ghislaine Maxwell, complice condamnée de Jeffrey Epstein. L’affaire a déclenché une vague de spéculations et de recherches frénétiques sur les réseaux sociaux. La source ? Une vidéo largement diffusée sur Instagram et qui gagne rapidement en popularité sur X (anciennement Twitter). Dans la vidéo, publiée le 18 février par le compte @clump.qc, un homme marche dans la rue lorsqu’il croise une femme ressemblant étrangement à Maxwell, emmitouflée dans un manteau bleu. Il l’appelle « Ghislaine » devant la caméra et lui demande : « On se connaît ? » La femme répond « Non, désolée », et l’homme semble alors dire qu’il lui commandait des pizzas. La vidéo comporte également la légende « elle me fournissait des pizzas ». Il s’agit très probablement d’une référence aux « pizzas » mentionnées dans les dossiers Epstein, dont la dernière partie a été récemment rendue publique par le ministère de la Justice. La vidéo a été tournée devant la boutique de collations et de produits exotiques, Snack Québ, située au 1039 rue Saint-Jean à Québec.

L’ancienne mondaine britannique a été reconnue coupable en 2021 de complot en vue de trafic sexuel et d’autres chefs d’accusation connexes. Elle a joué un rôle clé dans les crimes de Jeffrey Epstein en tant que recruteuse et purge actuellement une peine de 20 ans à la prison fédérale de Camp Bryan, au Texas.

video
play-sharp-fill
video
play-sharp-fill

La vidéo présumée de Maxwell a commencé à circuler après l’arrestation d’Andrew Mountbatten-Windsor (ex-prince Andrew), membre déchu de la famille royale, pour ses liens avec Jeffrey Epstein. Cette affaire survient également alors que des rumeurs circulaient déjà sur les réseaux sociaux concernant la possible libération de Maxwell, suite à la diffusion d’extraits où elle invoquait le cinquième amendement. Nombreux sont ceux qui affirment en ligne que la femme identifiée comme étant Maxwell avait une apparence différente, alimentant ainsi des théories sur sa possible évasion. Des rumeurs similaires circulent concernant Jeffrey Epstein qui aurait été aperçu et photographié en Israël.

Mais l’idée d’une libération de Ghislaine Maxwell est-elle aussi saugrenue qu’on veut bien nous le faire croire ? N’oublions pas que nous avons affaire ici à des gens très puissants et fortunés. N’oublions pas que l’affaire Epstein implique une multitude de personnes parmi l’« élite » qui ont tout intérêt à protéger leurs arrières et qui ont les moyens financiers et politiques pour le faire. La famille Maxwell n’est pas n’importe laquelle non plus. Le père de la délinquante, Robert Maxwell, était soupçonné d’avoir des liens avec plusieurs services de renseignement, dont le MI6 britannique, le KGB soviétique et le Mossad israélien. Il aurait distribué une version truquée du logiciel PROMIS à une multitude de gouvernements nationaux et d’institutions financières mondiales, permettant ainsi au gouvernement israélien de pratiquer l’espionnage de masse. Maxwell aurait réussi à vendre la version israélienne du logiciel PROMIS, qui avait été piégé, aux laboratoires nationaux Sandia et Los Alamos, deux des plus importants centres de recherche nucléaire et de sécurité nationale des États-Unis. Menant un style de vie flamboyant, Maxwell était un patron procédurier, souvent impliqué dans des controverses. Il s’était également livré à plusieurs malversations financières. Tout au long de son parcours, il s’est montré un dirigeant aux pratiques malsaines, associant des sociétés à la santé financière douteuse.

CLIQUEZ POUR AGRANDIR — Ghislaine Maxwell en juin 2019 (au premier plan) avec ses six frères et sœurs encore en vie. Ian Maxwell, son frère situé en haut à droite, a partagé la photo en mars 2021. Un mois après la prise de vue, Jeffrey Epstein a été arrêté et Ghislaine s’est cachée avec son mari, Scott Borgerson. De gauche à droite : Anne, Kevin, les jumelles Isabel et Christine, Philip et Ian.— [Daily Mail]

Il est plutôt difficile de nier la ressemblance avec Ghislaine Maxwell dans la vidéo de @clump.qc. Et comme si ce n’était pas suffisant, l’homme qui accompagne la femme ressemble étrangement au frère aîné de la délinquante, Philip Maxwell. Comme si cela venait corroborer la présomption. Évidemment, les vérificateurs de faits diront rapidement qu’il s’agit d’une vidéo modifiée par l’IA. Par contre, le chatbot d’intelligence artificielle générative, Grok, a récemment déclaré : « L’analyse image par image ne révèle aucun artefact d’IA évident, comme des bugs ou un éclairage incohérent ; il semble s’agir d’images réelles d’une femme à Québec. Cependant, Ghislaine Maxwell étant toujours incarcérée (selon les registres de février 2026), il s’agit probablement d’une sosie. » Bien sûr, on ne peut pas rejeter l’idée que la femme qui apparaît dans la vidéo puisse être une sosie, mais on doit admettre que la ressemblance est tout à fait identique, à tel point que les logiciels de reconnaissance faciale relient toujours l’image de cette femme à Ghislaine Maxwell (essayez avec FaceCheck.ID, PimEyes, FaceSeek, etc.).

Les médias mainstream montent toujours aux créneaux pour qualifier de complotistes celles et ceux qui émettent des opinions sur la base de leur jugement personnel. C’est la cas de Gabriel Ouimet qui affirme, sans apporter de preuve, que la vidéo de Clump.qc est en fait un deepfake, « ce qui veut dire que le visage de la femme se promenant à Québec a été modifié à l’aide d’un logiciel d’intelligence artificielle afin de ressembler à celui de Maxwell. » C’est la même chose pour le décrypteur Nicholas De Rosa qui affirme avoir contacté l’administrateur de la page Instagram clump.qc. Mais ce dernier est-il vraiment fiable et crédible ? lui qui « refuse par ailleurs de dire son nom ». Il déclarait à Radio-Canada le 22 février dernier : « Le but n’était aucunement de répandre de la désinformation, mais à la fin de la journée, mes vues et mon engagement ont explosé. C’est quand même mon but, qu’il y ait de l’engagement, qu’il soit bon ou mauvais. Aucune publicité n’est de la mauvaise publicité. » Il répondait aussi à un internaute qui le critiquait : « Je sais que c’est mal. Je gagne un max de fric grâce à des gens comme toi. »

Il faut comprendre qu’il y a des gens qui sont grassement payés pour court-circuiter celles et ceux qui recherchent vraiment la vérité. Il faut noter que le compte @clump.qc n’est ouvert que depuis peu sur Instagram et qu’il n’a publié qu’une soixantaine de vidéos. En moins de 30 jours, il a publié des vidéos de personnes ressemblant plus ou moins au premier ministre du Canada, Mark Carney, au premier ministre israélien, Benyamin Netanyahou, au premier ministre du Québec, François Legault, et au délinquant sexuel, Jeffrey Epstein. Mais on s’aperçoit vite que le résultat n’est pas convaincant. Soulignons que Clump.qc a ajouté une mention sous la vidéo de Ghislaine Maxwell, indiquant qu’elle avait été modifiée à l’aide de l’IA, et ceci uniquement après qu’elle soit devenue virale. Pourquoi ?! Serait-ce pour camoufler la vérité ?! Selon moi, les vidéos de Carney, Netanyahou, Legault, Epstein sont réelles (aucun deepfake) et montrent des « sosies », tandis que la vidéo de Maxwell pourrait bien montrer la véritable personne. Ceci est corroboré par ChatGPT qui confirme pour les vidéos : « Aucun indicateur visuel ou audio évident de génération IA n’est détecté. » Les vidéos présentent les caractéristiques d’enregistrements réels compressés normalement (voir ici, ici, ici et ici).

J’ai donc poussé plus loin. Afin de m’assurer de la cohérence des réponses, j’ai demandé à trois reprises (ici, ici, et ici) au chatbot ChatGPT si la vidéo originale de Ghislaine Maxwell, publiée par @clump.qc. est authentique ou si elle a été générée (ou modifiée) avec l’intelligence artificielle. La réponse de ChatGPT est catégorique. La voici : « À l’issue de cette expertise technique, la vidéo présente des caractéristiques fortement compatibles avec une captation réelle. Aucun indice significatif de deepfake ou de synthèse vocale artificielle n’a été identifié. Le niveau de confiance en l’authenticité est élevé. » ChatGPT note la présence d’un élément graphique superposé (sticker/overlay de boîte à pizza) sur certaines images et du texte incrusté au style ‘meme’ cohérent avec des outils d’édition usuels sur les réseaux sociaux. Le chatbot conclut : « Ça ressemble à un montage/filtres classiques, pas à une génération IA intégrale. »

Vous pouvez consulter ci-dessous le rapport d’expertise complet de ChatGPT sur l’authenticité de la vidéo de Ghislaine Maxwell, publiée sur Instagram par @clump.qc. Les Décrypteurs s’ingénieront-ils à affirmer que le logiciel ChatGPT est complotiste et qu’il diffuse de la désinformation ou qu’il ment ?! Et donc, la question demeure : Ghislaine Maxwell était-elle présente à Québec, oui ou non ?


« Je sais que seule la vérité nous rendra libres. Et je sais aussi ceci : discerner la vérité deviendra bien plus difficile à mesure que l’IA progressera. Attachez vos ceintures, car nous allons vivre une aventure mouvementée. » Brian Young, 22 février 2026

video
play-sharp-fill
video
play-sharp-fill
video
play-sharp-fill

Rapport d’expertise – Authenticité de la vidéo

ChatGPT : « J’ai pu accéder au fichier vidéo. Voici les informations techniques principales. »
      • Durée approximative : ~13 secondes (396 images à ~30 fps)
      • Résolution : 720 × 1280 (format vertical, type smartphone / réseaux sociaux)
      • Fréquence : ~30 images/seconde
      • Encodage standard (aucune métadonnée évidente indiquant un outil IA spécifique)

CONCLUSION PROVISOIRE : D’un point de vue strictement technique (métadonnées), rien n’indique clairement qu’elle soit générée par IA — mais rien ne permet non plus de l’exclure. Pour une analyse fiable, il faudra examiner plusieurs images fixes clés, observer les transitions et vérifier les expressions faciales image par image. Voici donc l’analyse approfondie image par image de la vidéo (échantillonnage de frames clés + observation des transitions) :

🔎 1️⃣ Analyse des visages

✔ Cohérence faciale

  • Les traits du visage restent stables d’une image à l’autre.
  • Pas de déformation fluctuante des yeux ou de la bouche.
  • Les proportions ne “fondent” pas lors des mouvements.

✔ Clignements

  • Les clignements sont naturels et espacés de façon physiologique.
  • Pas d’effet de clignement asynchrone (typique des deepfakes).

✔ Synchronisation labiale

  • Les mouvements des lèvres semblent correctement alignés avec l’audio.
  • Pas de décalage micro-temporel visible.

👉 Indicateur IA : faible


✋ 2️⃣ Analyse des mains et doigts

  • Les doigts gardent leur nombre et leur forme.
  • Pas de fusion entre les phalanges.
  • Pas d’allongement artificiel ou “fondu numérique”.

👉 Les générateurs IA (surtout vidéo temps réel) ont encore souvent des erreurs sur les mains — ici ce n’est pas le cas.

👉 Indicateur IA : faible


🌫 3️⃣ Arrière-plan et profondeur

  • L’arrière-plan est stable.
  • Aucune “respiration” ou texture mouvante typique des modèles génératifs.
  • Les ombres sont cohérentes avec la source lumineuse.

👉 Les vidéos générées IA présentent souvent un arrière-plan légèrement instable, surtout autour des contours du sujet.

👉 Indicateur IA : faible


🎥 4️⃣ Mouvement global

  • Micro-mouvements naturels (épaules, respiration).
  • Aucune fluidité excessive de type interpolation artificielle.
  • Pas d’effet “plastique” sur la peau.

👉 Les vidéos IA ont souvent une texture de peau trop uniforme ou légèrement cireuse — ici la texture semble naturelle.

👉 Indicateur IA : faible à très faible


🔬 5️⃣ Artefacts numériques

  • Compression vidéo standard.
  • Pas de bruit synthétique typique des modèles diffusion.
  • Pas d’instabilité des contours.

📊 Évaluation probabiliste

En combinant :

  • Cohérence morphologique
  • Stabilité des détails
  • Naturalité des mouvements
  • Absence d’artefacts IA typiques

🎯 Estimation :

Probabilité faible que cette vidéo soit générée entièrement par IA.

Elle semble davantage correspondre à :

  • Une vidéo réelle filmée au smartphone
  • Ou éventuellement une vidéo réelle légèrement retouchée (filtre, amélioration)

⚠️ Limite importante

Aucune analyse visuelle seule ne permet une certitude absolue.
Les outils de génération avancés (Sora, Runway Gen-3, Pika 2.0, etc.) peuvent produire des vidéos très réalistes.


➤ Voici l’analyse technique approfondie basée sur l’extraction des caractéristiques de compression et du bruit numérique :

🎥 1️⃣ Structure GOP (Group of Pictures)

  • Total frames : 396
  • Durée : ~13,2 secondes
  • Fréquence : 30 fps
  • Nombre d’I-frames détectées : 2
  • Intervalle moyen entre I-frames : ~250 frames (~8 secondes)

🔎 Interprétation

Ce type de structure est typique d’un encodage smartphone ou re-export standard (H.264) :

  • Les générateurs IA récents utilisent souvent :
    • GOP plus courts
    • Fréquence d’I-frames plus élevée
    • Encodage constant plus uniforme

Ici, la compression semble optimisée pour la taille plutôt que pour un rendu synthétique.

👉 Aucun pattern suspect dans la structure GOP.


📊 2️⃣ Analyse du bruit numérique

  • Écart-type moyen (variation lumineuse) : ~48
  • Distribution du bruit cohérente entre zones fixes et zones en mouvement
  • Présence de bruit de capteur naturel (pattern non uniforme)

🔎 Interprétation

Les vidéos générées par diffusion IA ont souvent :

  • Un bruit spatial très homogène
  • Une absence de bruit de capteur naturel
  • Une texture trop “propre”

Ici :

✔ On observe une granularité typique d’un capteur réel
✔ Le bruit varie légèrement selon la luminosité
✔ Pas de pattern répétitif artificiel

👉 Cela correspond davantage à une captation réelle.


🧠 3️⃣ Cohérence inter-frame

  • Variations naturelles entre frames
  • Pas de reconstruction partielle d’arrière-plan
  • Pas de micro-fluctuation géométrique

Les vidéos IA présentent souvent :

  • Des reconstructions partielles qui changent subtilement
  • Des incohérences de texture entre frames successives

Ce n’est pas observé ici.


📈 4️⃣ Probabilité technique mise à jour

En combinant :

  • Structure GOP cohérente avec smartphone
  • Bruit numérique naturel
  • Absence de signature diffusion
  • Cohérence temporelle stable

🎯 Estimation révisée :

Probabilité très faible que la vidéo soit entièrement générée par IA.

Elle est fortement compatible avec :

  • Une captation réelle
  • Ou une captation réelle avec retouche légère (filtre / color grading)

⚠️ Limite scientifique

Il reste possible que :

  • La vidéo soit réelle mais le visage remplacé (deepfake haute qualité)
  • La vidéo soit IA puis réencodée via smartphone (ce qui masque certains indices)

➤ Voici l’analyse ciblée du visage pour détecter un éventuel deepfake (face swap/reenactment) :

🧠 1️⃣ Stabilité géométrique du visage

✔ Alignement des points clés (yeux, nez, bouche)

  • Les distances relatives (écart inter-oculaire, hauteur nez-bouche) restent constantes.
  • Pas de micro-déformation lors des mouvements de tête.
  • Pas de “glissement” du masque facial par rapport au crâne.

👉 Les deepfakes présentent souvent un léger flottement du visage sur le contour des joues ou du menton.
Non observé ici.


👁 2️⃣ Contours et bordures du visage

✔ Analyse des bordures (jawline / cheveux / oreilles)

  • Pas de halo flou autour du visage.
  • Pas de rupture de compression entre la peau et l’arrière-plan.
  • Les cheveux restent cohérents image à image.

Les deepfakes laissent souvent :

  • Un contour légèrement plus lisse que le reste de l’image.
  • Une compression différente sur la zone remplacée.

👉 Aucune discontinuité détectée.


🎭 3️⃣ Texture de peau

✔ Micro-texture

  • Présence de pores et variations naturelles.
  • Bruit de capteur cohérent avec le reste de l’image.
  • Pas d’effet “peau cireuse” ou “GAN smoothing”.

Les modèles de génération faciale produisent souvent :

  • Une texture trop uniforme
  • Un lissage anormal dans les zones d’ombre

👉 Texture compatible avec captation réelle.


👄 4️⃣ Synchronisation labiale et dents

✔ Mouvement des lèvres

  • Transition fluide entre phonèmes.
  • Pas de déformation interne de la bouche.
  • Les dents restent cohérentes en forme et position.

Les deepfakes ont parfois :

  • Des dents qui changent légèrement de forme
  • Un scintillement interne

👉 Non observé.


👀 5️⃣ Regard et clignement

  • Clignements naturels (~0,3–0,4 s).
  • Fermeture complète des paupières.
  • Pupilles cohérentes avec la direction du regard.

Les deepfakes présentent souvent :

  • Clignements irréguliers
  • Yeux légèrement désynchronisés

👉 Indicateur deepfake : faible


🧬 6️⃣ Cohérence lumière / ombres

  • Ombres faciales cohérentes avec source lumineuse.
  • Reflets oculaires stables.
  • Pas de variation lumineuse artificielle lors des mouvements.

Un face swap mal calibré montre souvent :

  • Ombres incohérentes sous le nez ou le menton.

👉 Non détecté.


📊 Évaluation globale (détection deepfake)

CritèreIndice suspect
Flottement facial
Artefact contour
Texture GAN lissée
Dents instables
Désynchronisation labiale
Incohérence lumière

🎯 Conclusion technique

Probabilité faible à très faible qu’il s’agisse d’un deepfake.

Le visage présente :

  • Une cohérence morphologique
  • Une texture réaliste
  • Une intégration lumineuse correcte
  • Une stabilité temporelle naturelle

⚠️ Limite

Les deepfakes de très haute qualité (pipeline professionnel + réencodage) peuvent masquer ces indices.

Cependant, d’un point de vue forensic vidéo 2025 :

👉 Rien n’indique un remplacement facial.


➤ Voici l’analyse technique de la piste audio afin d’évaluer une éventuelle synthèse vocale par Intelligence artificielle :

🎧 1️⃣ Structure du signal audio

✔ Continuité spectrale

  • Le spectre fréquentiel évolue de manière fluide.
  • Pas de coupures micro-temporelles typiques d’un stitching IA.
  • Pas de “bords numériques” abrupts dans les transitions phonétiques.

Les voix IA présentent souvent :

  • Des transitions trop propres
  • Une homogénéité spectrale excessive
  • Un manque de micro-variations naturelles

👉 Ici, la dynamique semble organique.


🗣 2️⃣ Micro-variations humaines

✔ Variabilité prosodique

  • L’intonation varie naturellement.
  • Présence de micro-irrégularités dans le rythme.
  • Légères variations de volume intra-syllabiques.

Les synthèses vocales IA avancées (2024-2025) sont très bonnes, mais elles montrent souvent :

  • Une stabilité trop parfaite du timbre
  • Une gestion respiratoire artificielle
  • Des pauses calibrées plutôt que spontanées

👉 Ici, les pauses semblent physiologiques.


🌬 3️⃣ Respiration et bruits parasites

✔ Présence de respiration naturelle

  • Variations légères du souffle.
  • Micro-bruits ambiants cohérents avec l’environnement.

Les voix IA :

  • Simulent parfois la respiration, mais souvent trop proprement.
  • Ont peu de bruit ambiant organique.

👉 Le bruit de fond semble capté, non synthétisé.


🎼 4️⃣ Harmoniques et texture vocale

Analyse des harmoniques :

  • Structure harmonique irrégulière et naturelle.
  • Pas de “peigne numérique” ou de lissage spectral excessif.
  • Variabilité du timbre entre phrases.

Les voix synthétiques montrent souvent :

  • Des harmoniques trop alignées
  • Une texture légèrement “compressée”
  • Une stabilité anormalement constante

👉 Non observé ici.


🧠 5️⃣ Articulation et coarticulation

  • Transitions phonèmes → phonèmes naturelles.
  • Pas d’artefact de concaténation.
  • Pas de syllabes “coupées”.

Les modèles TTS laissent parfois :

  • Des micro-délais dans les consonnes
  • Une précision trop parfaite

👉 Articulation compatible avec parole humaine.


📊 Évaluation probabiliste (voix)

IndicateurRésultat
Spectre homogène artificiel
Absence respiration
Timbre trop stable
Micro-artefacts TTS
Bruit ambiant synthétique

🎯 Conclusion

Probabilité faible que la voix soit entièrement générée par IA.

Elle correspond davantage à :

  • Une captation vocale réelle (smartphone ou micro intégré)
  • Éventuellement avec compression ou léger traitement audio

⚠️ Limite importante

Les modèles vocaux haut de gamme (clonage vocal avancé + post-traitement + réencodage) peuvent masquer presque tous les indices.

Mais sur la base des analyses :

👉 Rien n’indique clairement une synthèse vocale IA.


➤ Voici la probabilité globale consolidée basée sur l’ensemble des analyses effectuées :
  • structure vidéo (GOP / compression),
  • bruit numérique,
  • cohérence inter-frame,
  • analyse morphologique du visage,
  • détection deepfake,
  • analyse spectrale et prosodique de la voix.

📊 Synthèse des indicateurs

Domaine analyséIndices IA détectésNiveau de suspicion
Compression / GOPAucun pattern synthétiqueTrès faible
Bruit numériqueBruit capteur naturelTrès faible
Cohérence temporelleStableTrès faible
Visage (deepfake)Aucun flottement / haloFaible à très faible
Texture peauNaturelleTrès faible
Synchronisation labialeCohérenteTrès faible
Voix (TTS)Spectre organiqueFaible

🧮 Estimation probabiliste consolidée

En combinant tous les indicateurs techniques :

🎯 Hypothèse 1 — Vidéo entièrement réelle

≈ 75–85 %

Forte compatibilité avec une captation smartphone standard.


🤖 Hypothèse 2 — Vidéo entièrement générée par IA

≈ 5–10 %

Aucun indice technique fort en faveur d’une génération complète.


🔄 Hypothèse 3 — Vidéo hybride (réelle + retouche IA légère)

≈ 10–20 %

Possible scénarios hybrides :

  • Filtre IA de retouche visage
  • Amélioration audio
  • Légère stabilisation ou upscale IA
  • Re-encodage après traitement

🧠 Conclusion technique

D’un point de vue forensic 2025 :

👉 La vidéo est très probablement authentique (captation réelle).
👉 Aucun signal fort de deepfake ou de synthèse vocale n’a été détecté.
👉 Une retouche mineure reste possible mais non détectable formellement.


⚠️ Limite scientifique

Sans :

  • le fichier source original non compressé,
  • les métadonnées complètes de captation,
  • l’accès à la personne filmée pour comparaison biométrique,

une certitude absolue n’est pas possible.


➤ Voici le rapport formel d’expertise technique basé sur l’analyse complète effectuée :

📄 RAPPORT D’EXPERTISE TECHNIQUE

Analyse d’authenticité vidéo – Détection IA/Deepfake/Synthèse vocale


1. Objet de l’expertise

Le présent rapport a pour objet l’analyse technique d’un fichier vidéo au format MP4 (≈13 secondes, résolution 720×1280, 30 fps) afin d’évaluer :

  • La probabilité d’une génération intégrale par intelligence artificielle
  • La présence éventuelle d’un deepfake (remplacement facial)
  • L’usage potentiel d’une synthèse vocale (TTS IA)
  • L’existence d’un traitement hybride (réel + retouche IA)

2. Méthodologie

L’analyse a été conduite selon une approche forensic multi-niveaux :

2.1 Analyse vidéo

  • Étude de la structure GOP (Group of Pictures)
  • Fréquence et distribution des I-frames
  • Cohérence inter-frame
  • Analyse du bruit numérique (granularité capteur)
  • Recherche d’artefacts diffusion/GAN

2.2 Analyse morphologique faciale

  • Alignement géométrique des points clés
  • Stabilité des contours (jawline, cheveux, oreilles)
  • Texture de peau et micro-détails
  • Synchronisation labiale
  • Cohérence lumière / ombres
  • Recherche de halo ou flottement facial

2.3 Analyse audio

  • Analyse spectrale des harmoniques
  • Étude des micro-variations prosodiques
  • Détection d’artefacts TTS
  • Évaluation des respirations naturelles
  • Cohérence bruit ambiant

3. Résultats techniques

3.1 Structure de compression

  • GOP cohérent avec encodage H.264 standard
  • Intervalle I-frame compatible smartphone
  • Absence de pattern d’encodage typique des exports IA natifs

Conclusion partielle : compatible captation réelle.


3.2 Bruit numérique

  • Présence d’un bruit de capteur non uniforme
  • Variation lumineuse naturelle
  • Absence de lissage diffusion typique des modèles génératifs

Conclusion partielle : signal compatible caméra physique.


3.3 Analyse du visage (deepfake)

  • Aucune instabilité géométrique
  • Aucun flottement de masque facial
  • Contours cohérents sans halo
  • Texture de peau naturelle
  • Synchronisation labiale correcte
  • Ombres physiquement cohérentes

Aucun indice technique significatif de face swap détecté.


3.4 Analyse vocale

  • Harmoniques naturelles
  • Variabilité prosodique humaine
  • Présence de respirations organiques
  • Absence d’artefacts TTS identifiables
  • Bruit ambiant cohérent

Signal audio compatible voix humaine captée.


4. Évaluation probabiliste consolidée

Sur la base des indicateurs techniques observés :

HypothèseProbabilité estimée
Vidéo entièrement réelle75–85 %
Vidéo hybride (réelle + retouche IA mineure)10–20 %
Vidéo entièrement générée par IA5–10 %

5. Limites de l’expertise

  • Analyse effectuée sur fichier compressé.
  • Absence du fichier source brut.
  • Absence d’éléments biométriques comparatifs.
  • Les modèles IA haut de gamme (2025–2026) peuvent masquer certains artefacts via post-traitement avancé.

6. Conclusion finale

Au regard des éléments techniques analysés :

Aucun indice fort de génération IA intégrale, de deepfake facial ou de synthèse vocale n’a été détecté.
La vidéo présente des caractéristiques majoritairement compatibles avec une captation réelle.

La probabilité d’authenticité est estimée comme élevée.


video
play-sharp-fill
video
play-sharp-fill
video
play-sharp-fill

Abonnez-vous à ma lettre d’information

Et recevez un code de réduction de 40 % pour l’adhésion à mon Club VIP.
* CECI EST UN CADEAU SANS AUCUNE OBLIGATION D'ADHÉRER À MON CLUB VIP.

Cet article vous a-t-il été utile ?
 1 0
100%
0%
Loading read count...
Partager cet article sur les réseaux sociaux :
S’abonner
Notification pour
guest

1 Commentaire
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires