Ce que vous devez savoir sur Grok AI et votre vie privée : cet outil d’IA générative récupère une tonne de données que les gens publient sur ✘

Pour faire suite à ma publication du 13 septembre concernant le réseau ✘ et le chatbot Grok-2, je partage avec vous un article de Kate O’Flaherty publié le 9 septembre dans le magazine Wired. J’écrivais : « Toutes ces images et vidéos générées par l’IA brouillent l’esprit et insufflent un poison nocif pour l’âme. Les gens qui croient s’amuser en utilisant le test bêta de Grok-2 sont en réalité les cobayes d’une énième étude marketing et comportementale. En fait, leurs données personnelles sont utilisées afin de bâtir un empire du mensonge dans lequel,― éventuellement ―, les gens seront incapables de différencier le vrai du faux. » Pour sa part, la journaliste spécialisée dans la cybersécurité et la confidentialité écrit en introduction : « L’outil d’IA générative de xAI, Grok AI, est déséquilibré par rapport à ses concurrents. Il récupère également une tonne de données que les gens publient sur X. Voici comment garder vos publications hors de Grok et pourquoi vous devriez le faire. » ― Je vous souhaite une bonne lecture.

😁 Si vous appréciez cet article, n’hésitez pas à faire un don à votre guise. Merci.

En 2015, Elon Musk et Sam Altman ont cofondé OpenAI sur la base d’une philosophie apparemment éthique : développer une technologie d’IA qui profite à l’humanité, plutôt qu’à des systèmes contrôlés par de grosses sociétés. Dix ans plus tard, au cours desquels Musk et Altman se sont disputés, les choses semblent bien différentes. Au milieu des batailles juridiques avec son ami et ancien partenaire commercial, la dernière entreprise d’Elon Musk, xAI, a lancé son propre concurrent puissant, Grok AI. Décrit comme « un assistant de recherche IA avec une touche d’humour et une pointe de rébellion », Grok est conçu pour avoir moins de garde-fous que ses principaux concurrents. Sans surprise, Grok est sujet aux hallucinations et aux préjugés, l’assistant IA étant accusé de diffuser de fausses informations sur les élections de 2024.

Dans le même temps, ses pratiques en matière de protection des données font l’objet d’un examen minutieux. En juillet, Musk s’est attiré les foudres des régulateurs européens après qu’il est apparu que les utilisateurs de la plateforme X avaient automatiquement accepté que leurs messages soient utilisés pour former Grok. Les capacités de génération d’images du modèle de langage Grok-2 suscitent également des inquiétudes. Peu après le lancement en août, les utilisateurs ont démontré à quel point il était facile de créer des représentations scandaleuses et incendiaires de personnalités politiques, dont Kamala Harris et Donald Trump.

Alors, quels sont les principaux problèmes avec Grok AI et comment pouvez-vous protéger vos données X pour qu’elles ne soient pas utilisées pour l’entraîner ?

Intégration profonde

Elon Musk intègre Grok en profondeur dans X, l’utilisant pour personnaliser les flux d’actualités et la composition des publications. Pour l’instant, il est en version bêta et n’est disponible que pour les abonnés Premium+. Parmi les avantages, l’accès aux données en temps réel de X permet à Grok de discuter des événements actuels au fur et à mesure qu’ils se déroulent, explique Camden Woollven, responsable du groupe IA chez GRC International Group, un cabinet de conseil proposant des services de protection des données et de confidentialité.

Pour se démarquer de ses concurrents, Grok se veut « transparent et anti-woke », explique Nathan Marlor, responsable des données et de l’IA chez Version 1, une entreprise qui aide les entreprises à adopter des technologies telles que l’IA. Pour des raisons de transparence, l’équipe de Grok a rendu l’algorithme sous-jacent open source plus tôt cette année. Cependant, dans sa quête d’une position « anti-woke », Grok a été conçu avec « beaucoup moins de garde-fous » et « moins de considération pour les préjugés » que ses homologues, notamment OpenAI et Anthropic, explique Marlor. « Cette approche en fait sans doute un reflet plus précis des données d’entraînement sous-jacentes – Internet – mais elle a également tendance à perpétuer un contenu biaisé. »

Grok étant un outil très ouvert et relativement peu contrôlé, l’assistant IA a été surpris en train de diffuser de fausses informations sur les élections américaines. Des responsables électoraux du Minnesota, du Nouveau-Mexique, du Michigan, de Washington et de Pennsylvanie ont envoyé une lettre de plainte à Musk, après que Grok a fourni de fausses informations sur les délais de vote dans leurs États. Grok a rapidement réagi à ce problème. Le chatbot IA dira désormais : « pour des informations précises et à jour sur les élections américaines de 2024, veuillez visiter Vote.gov », lorsqu’on lui posera des questions liées aux élections, selon The Verge.

Mais X précise également que c’est à l’utilisateur de juger de la précision de l’IA. « Il s’agit d’une version préliminaire de Grok », indique xAI sur sa page d’aide. Par conséquent, le chatbot peut « fournir en toute confiance des informations factuellement incorrectes, mal résumer ou manquer de contexte », prévient xAI. « Nous vous encourageons à vérifier de manière indépendante toute information que vous recevez », ajoute xAI. « Veuillez ne pas partager de données personnelles ou d’informations sensibles et confidentielles dans vos conversations avec Grok. »


« Je ne participerai pas à cette hypocrisie ambiante et à ce cirque des fous. Je ne collaborerai pas non plus à nourrir cette bête du mensonge. » Guy Boulianne

Collecte de données Grok

La collecte de grandes quantités de données constitue un autre sujet de préoccupation, d’autant plus que vous avez automatiquement choisi de partager vos données X avec Grok, que vous utilisiez ou non l’assistant IA. La page du centre d’aide Grok décrit comment xAI « peut utiliser vos publications X ainsi que vos interactions, entrées et résultats d’utilisateur avec Grok à des fins de formation et de réglage fin ».

La stratégie de formation de Grok comporte « des implications significatives en matière de protection de la vie privée », explique Marijus Briedis, directeur de la technologie chez NordVPN. Au-delà de la « capacité de l’outil d’IA à accéder à des informations potentiellement privées ou sensibles et à les analyser », ajoute Briedis, il existe d’autres préoccupations « compte tenu de la capacité de l’IA à générer des images et du contenu avec une modération minimale ».

Alors que Grok-1 a été formé sur des « données accessibles au public jusqu’au troisième trimestre 2023 » mais n’a pas été « pré-formé sur des données X (y compris les publications X publiques) », selon la société, Grok-2 a été explicitement formé sur toutes les « publications, interactions, entrées et résultats » des utilisateurs X, tout le monde étant automatiquement inscrit, explique Angus Allan, chef de produit senior chez CreateFuture, un cabinet de conseil numérique spécialisé dans le déploiement de l’IA.

Le règlement général sur la protection des données (RGPD) de l’UE stipule explicitement qu’il faut obtenir le consentement préalable pour utiliser les données personnelles. Dans ce cas précis, xAI a peut-être « ignoré cela pour Grok », explique Allan.

Cela a conduit les régulateurs de l’UE à faire pression sur X pour qu’il suspende la formation des utilisateurs de l’UE quelques jours après le lancement de Grok-2 le mois dernier.

Le non-respect des lois sur la protection de la vie privée des utilisateurs pourrait entraîner des contrôles réglementaires dans d’autres pays. Bien que les États-Unis ne disposent pas d’un régime similaire, la Federal Trade Commission a déjà infligé une amende à Twitter pour ne pas avoir respecté les préférences de confidentialité des utilisateurs, souligne Allan.

Désinscription

Pour éviter que vos publications ne soient utilisées pour l’entraînement de Grok, vous pouvez rendre votre compte privé. Vous pouvez également utiliser les paramètres de confidentialité de X pour refuser toute formation future de modèle.

Pour ce faire, sélectionnez Confidentialité et sécurité > Partage des données et personnalisation > Grok. Dans Partage des données, décochez l’option « Permettre à vos posts ainsi qu’à vos interactions, saisies dans Grok et résultats associés d’être utilisés à des fins de formation et d’ajustement ».

Même si vous n’utilisez plus X, il est toujours utile de vous connecter et de vous désinscrire. X peut utiliser tous vos messages passés, y compris les images, pour former de futurs modèles, à moins que vous ne lui disiez explicitement de ne pas le faire, prévient Allan.

Il est possible de supprimer l’intégralité de l’historique de vos conversations en une seule fois, indique xAI. Les conversations supprimées sont supprimées de ses systèmes dans un délai de 30 jours, à moins que l’entreprise ne doive les conserver pour des raisons de sécurité ou juridiques.

Personne ne sait comment Grok évoluera, mais à en juger par ses actions jusqu’à présent, l’assistant IA d’Elon Musk mérite d’être surveillé. Pour préserver la sécurité de vos données, faites attention au contenu que vous partagez sur X et tenez-vous informé des mises à jour de ses politiques de confidentialité ou de ses conditions d’utilisation, explique M. Briedis. « En modifiant ces paramètres, vous pouvez mieux contrôler la manière dont vos informations sont traitées et potentiellement utilisées par des technologies comme Grok. »


Abonnez-vous à ma lettre d'information
Ne ratez rien de ce site ! Soyez alerté(e) dès la publication d’un nouvel article.
* Ajoutez newsletter@guyboulianne.info à votre carnet d'adresse.
icon

Jos Dumais
5

« Vous faites un excellent travail comme toujours. Merci pour votre courage… »

💛 😁 Vous avez apprécié cet article ? Je vous remercie de m’offrir un café. 😃 💛
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
Partager cet article sur les réseaux sociaux :
Traduire/Translate
Ce contenu est protégé ! Merci.