Les applications de Nudify, une peur de l’IA ?

« v. legal_text_title »

ttt t t

« v. legal_text_title »

Une erreur s’est produite : « t »

Vous recevrez une confirmation dans quelques instants.

Ces programmes reposent sur deux techniques principales : les algorithmes d’IA générative (entraînés sur des bases de données massives de symboles d’images nues), qui analysent les symboles pour générer un montage modifié qui simule le désassemblage, et les techniques d’apprentissage profond qui créent des deepfakes en superposant des corps nus sans nom avec les visages des cibles. Il est à noter que les turbines à symboles nus utilisent les mêmes algorithmes d’intelligence synthétique générative que ceux de l’équipement du client, tels que Midjourney, Blue Willow, Stable diffusion ou Bing Create Image, qui interdisent strictement la création de symboles de femmes, d’hommes ou de femmes nus. enfants.

Plus précisément, les algorithmes deepfake analysent des milliers de symboles de corps nus pour apprendre les combinaisons graphiques et les caractéristiques qui les rendent crédibles. Cette connaissance crée de nouveaux symboles photographiques, imitant ainsi la réalité. Ainsi, l’utilisateur n’a qu’à fournir une ou plusieurs photographies de la victime, et l’IA générera un nouveau symbole en remplaçant les vêtements par des parties du cadre nu de sa base de données.

Le résultat est étrangement réaliste, d’autant plus que ces alpasritmos peuvent également s’adapter à des éléments tels que le teint de la peau pour un look encore plus original. Certains vont même jusqu’à proposer des diversifications (poses, morphologies, etc. ) à l’utilisateur. Tout cela en quelques clics et à un coût ridiculement bas.

Cette montée en puissance correspond également au lancement de plusieurs modèles de distribution open-source capables de créer des photographies très impressionnantes par rapport à celles d’il y a quelques années. Bien que cela permette aux développeurs et aux chercheurs de faire progresser ces technologies, leur accessibilité accrue s’accompagne également de risques d’utilisation abusive et illégale, comme la création de deepfakes pornographiques. Parce que ces programmes font partie d’une tendance troublante de progression et de diffusion de la pornographie non consensuelle. N’importe qui peut potentiellement se retrouver nu dans le monde à son insu, avec des conséquences dévastatrices pour sa vie publique et professionnelle.

La bonne fortune de ces applications ne se mesure pas seulement à leur popularité croissante, mais aussi à leur modèle commercial florissant. Comme le note Graphika, « En plus de l’augmentation du trafic, theArray, dont certains coûtent 9,99 $ par mois, revendiquent sur leurs sites Internet attirent beaucoup de clients.  »Dans El Tiempo, Santiago Lakatos, analyste chez Graphika, va même jusqu’à dire qu' »ils font beaucoup d’affaires », notant que l’un d’entre eux prétend avoir « plus d’un millier d’utilisateurs par jour ».

Les établissements incriminés jouent la carte de l’innocence, voire de l’hypocrisie pure et simple. Officiellement, Nudify. online est présenté, par exemple, comme « un outil ludique pour générer de la fausse nudité à des fins de divertissement ». Selon ses promoteurs, il permettrait aux utilisateurs de « rire en se voyant nus en modifiant certains paramètres comme la morphologie ou l’âge ». L’accent est mis sur la simplicité d’utilisation et l’innocence du service, présenté comme un jeu indéniable. Les utilisateurs sont seulement invités à « respecter le consentement et la vie privée » des autres.

Mais en réalité, il est fort probable (et logique) que Nudify. online sera essentiellement utilisé pour sa fonction « Déshabiller », qui permet de déshabiller des images de femmes qui ont été habillées pour la première fois. C’est loin d’une utilisation récréative et consensuelle, et nous avons tendance à abuser de l’outil à des fins pornographiques non consensuelles. En quelques clics, n’importe qui peut se retrouver nu sur le net à son insu. Une puissance immense et extraordinairement nocive, l’antithèse du symbole bienveillant que le site tente de projeter.

Au-delà des personnalités publiques, premières cibles de cette fausse pornographie profonde et non consensuelle, de plus en plus de personnes sont exposées à leur insu. Et les experts en protection de la vie privée sont alarmés de voir que les progrès de l’IA rendent les logiciels contrefaits de plus en plus disponibles et efficaces. Nous constatons de plus en plus que ce logiciel est utilisé par d’autres personnes ayant des objectifs. Nous le voyons parmi les meilleurs étudiants des écoles et des universités », prévient Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation (EFF).

Être exposé sur Internet dans une situation aussi intime et dégradante peut avoir un effet mental dévastateur sur les victimes. Comme en témoigne Salomé Baqué, journaliste et écrivaine de « Sois jeune et tais-toi », victime de ces actes : « Je vous ai déjà parlé ici des insultes que je reçois en tant que journaliste, des menaces, des commentaires sexistes, des dénigrements. . . Mais je n’avais toujours pas partagé avec vous la dernière découverte de mes harceleurs : faire des montages pornographiques. avec la tête et distribuez-les. Imaginez mon visage chaque fois que je suis tagué dans ce type de messages. Non seulement le harcèlement et l’humiliation ne diminuent pas sur les médias sociaux, mais ils s’intensifient.

Au-delà de l’humiliation, ces photographies truquées au réalisme troublant peuvent causer des dommages durables à leur réputation et à leur vie (professionnelle et personnelle). L’ampleur du phénomène et sa proximité avec notre vie quotidienne ont été soulignées récemment en Espagne. En octobre 2023, la ville d’Almendralejo a fait la une des journaux étrangers après que plus de 30 écolières, âgées de 12 à 14 ans, ont déclaré avoir reçu des photos nues d’elles-mêmes, créé une application pour se « déshabiller » disponible via Telegram ou un téléchargement indéniable sur un smartphone.

Une organisation d’agresseurs masculins, pour la plupart mineurs et familiers avec les victimes, a utilisé des photographies prises sur les réseaux sociaux de ces jeunes femmes pour générer ce contenu dégradant, qui a ensuite été partagé à travers les conversations de l’organisation sur WhatsApp et Telegram. Pire encore, ces fausses photos ont même été utilisées dans au moins une tentative d’extorsion sur Instagram. « Aujourd’hui, un smartphone peut être considéré comme une arme. Une arme avec une réelle possibilité de destruction », prévient José Ramón Paredes Parra, père de l’une des victimes. Ce cas choquant illustre à quel point de tels programmes peuvent interférer avec la vie et menacer même les enfants, transformant de banales utilisations virtuelles en cauchemars.

L’intimidation liée à la « fausse nudité » est déjà une source d’inquiétude sans que les applications Nudify n’interviennent. C’est ce que démontre le cas de Samara, une écolière de 13 ans qui a été violemment agressée en avril 2024 devant son école à Montpellier. . Selon un rapport d’inspection remis au ministère de l’Éducation nationale, un compte de cyberharcèlement « fisha » est à l’origine de l’attaque. Ces comptes, dont le nom vient du verbe « montrer », sont des équipes de médias sociaux fréquentées par d’autres jeunes de la même école ou de la même communauté, où des photos intimes, généralement de filles mineures, sont échangées dans le but de les humilier. Photos, vidéos, informations non publiques. . . Ces comptes permettent la diffusion de photographies humiliantes. détourné des montages et des vidéos qui provoquent un climat d’agression parmi les étudiants », a déclaré le ministère.

Par conséquent, il est légitime de craindre que la banalisation des applications de type Nudify, qui rendent imaginable la génération d’images fausses et dégradantes, alimente ce type d’abus. Parce qu’au-delà de l’humiliation en ligne, ces pratiques peuvent avoir des conséquences dramatiques dans la vie réelle.

« Le grand défi est que ces versions nues peuvent être utilisées à des fins malveillantes pour se venger d’un ancien amant, d’un collègue peintre, d’un patron, pour nuire à la réputation d’une personnalité publique, pour démolir la carrière d’un politicien. . .  »explique Raphaël Richard, expert en IA et directeur du centre Academia 24pm.

Mais ce qui l’inquiète le plus, c’est la perspective d’un chantage monétaire : « C’est cette dernière utilisation qui me fait le plus de tort car elle a d’énormes perspectives monétaires. »Pour éviter que de fausses photos de vous nu ne soient envoyées à vos collègues, fournisseurs et clients ?100 € ?200 € ? 500 € ?Pire encore, combien seriez-vous prêt à payer pour sauvegarder vos photos (même à cent pour cent imaginaires) de vos positions que vous désapprouvez moralement, depuis que vous avez été envoyées à votre réseau professionnel ?

Il serait naïf de penser que seuls quelques Américains isolés utiliseraient ces technologies à des fins malveillantes. En fait, l’ensemble de l’écosystème de la cybercriminalité peut y trouver une veine nouvelle et très lucrative. « La cybercriminalité organisée génère déjà des dizaines de milliards de dollars pour ceux qui lancent des attaques de ransomware ou simplement pour les bergers ivoiriens qui séduisent et soutirent des milliers d’euros aux quinquagénaires français en se faisant passer pour des quinquagénaires », explique Raphaël Richard.

« Je peux parfaitement croire que ces deux types de criminels sautent sur la perspective de ces « images aléatoires » pour faire chanter par le biais d’images générées par l’IA. Nous parlons de dizaines de milliers de maîtres chanteurs et de dizaines de millions de victimes potentielles dans le monde, car « avec l’intelligence synthétique, nous pouvons même penser à automatiser le processus de chantage », poursuit-il. Un scénario effrayant, mais loin de la science-fiction. Avec la promesse de profits colossaux et la possibilité d’opérer à une échelle commerciale, cette nouvelle bureaucratie de la cybercriminalité pourrait temporairement devenir un fléau mondial. « Nous ne parlons donc pas d’un épiphénomène », insiste l’expert.

Face à ce phénomène, le cadre juridique existant peine à suivre la vitesse effrénée des avancées technologiques. Aux États-Unis, « il n’y a pas de loi fédérale interdisant la création de pornographie deepfake », explique Margi Murphy, une chroniqueuse technologique américaine. En France, tout aussi vaguement, la diffusion publique de photographies « nues » peut être considérée comme une injure ou une diffamation et passible d’une amende de 12 000 € (article 32 de la loi du 29 juillet 1881), selon la CNIL.

En fin de compte, les victimes sont laissées sans défense, confrontées à des « forces de police qui n’ont peut-être pas besoin d’enquêter » et à des « procès coûteux ». Par conséquent, il y a un grand vide juridique à combler par les législateurs.

Les médias sociaux et les plateformes en ligne jouent également un rôle clé pour limiter la propagation de ces contenus abusifs. Des initiatives émergent : TikTok a bloqué le mot-clé « déshabiller », un terme de recherche populaire lié aux services, et il faut faire preuve de prudence lors de la recherche du mot qui « peut être lié à une habitude ou à un contenu qui enfreint nos directives ».

Mais ces efforts sont encore insuffisants. Par conséquent, en collaboration avec les autorités, les plateformes devront temporairement mettre en place des garanties et des procédures efficaces pour identifier et supprimer temporairement ces images. Les deux grands géants de l’internet, Apple et Google, seront chargés de purger leurs magasins d’applications (iOS, Android). de ces applications toxiques. Parce que nous ne devrons pas dédier son devoir à la couverture de ses utilisateurs.

On ne peut donc que souligner, une fois de plus, le fossé qui se creuse entre les avancées fulgurantes de l’IA et le cadre moral et juridique qui entre dans ses usages. En l’absence de filtres suffisamment bons, ce type d’outil peut être utilisé de manière transparente par d’autres individus malveillants pour produire de la pornographie juvénile, de la vengeance ou même des deepfakes si réalistes qu’ils peuvent être utilisés pour faire chanter ou piéger injustement leurs victimes.

Il est clairement dans l’intérêt des gouvernements de s’attaquer à ce facteur le plus tôt possible et de légiférer pour réglementer l’utilisation de ces technologies. Mais le fait est que la plupart des pays n’ont même pas encore de législation pour réglementer des phénomènes déjà bien établis. comme les NFT.

Une réaction globale et coordonnée est donc logiquement nécessaire. Il appartient aux décideurs politiques de criminaliser ces actes, tout en menant des études pour mieux percevoir le phénomène et en collaborant avec les plateformes pour améliorer la détection des contenus abusifs. « Les campagnes de sensibilisation méritent également de promouvoir une « culture du consentement en ligne », et il vaut la peine de développer des systèmes de soutien aux malades », indique le site web « Nudify Info ».

Comme le résume Santiago Lakatos, « nous devrons mesurer ensemble ce risque afin d’apporter une réponse juridique, technologique et sociale aux entreprises. C’est une lutte essentielle pour le respect des droits et de la dignité de toutes les personnes. Les femmes à l’ère virtuelle. Sensibiliser, légiférer, soutenir ceux qui souffrent et responsabiliser les acteurs virtuels : telles sont les situations exigeantes auxquelles il faut faire face.

Face à cette menace, il est urgent d’agir. Il est urgent que les législateurs adaptent la loi pour poursuivre de manière adéquate ces nouveaux types de crimes. Il est urgent que les plateformes investissent massivement dans la modération et la détection de ces contenus toxiques. Il est urgent que la police se dote des moyens technologiques et des ressources humaines pour traquer et démanteler ces réseaux criminels d’un nouveau type. Enfin, il est urgent que les citoyens soient conscients des dangers et qu’ils soient vigilants et perspicaces dans leur vie virtuelle.

Quelles sont les contre-mesures envisageables entre-temps ? Quelques conseils peuvent vous aider à vous protéger : minimiser le partage public de vos photos et vidéos, utiliser des alertes pour surveiller vos appels en ligne, signaler rapidement tout contenu abusif aux plateformes, porter plainte auprès du gouvernement et, pour les mineurs, appuyer sur le 3018, un numéro dédié aux victimes de violence virtuelle.

Mais ces mesures individuelles ne suffiront pas à enrayer un phénomène d’une telle ampleur, car il faut rappeler que 25 millions de personnes supplémentaires visitent chaque mois des sites de nudité sur Internet.

Pour Raphaël Richard, il n’y a qu’une solution radicale : « ne pas diffuser de photographies du corps entier pour ne pas courir le risque de se déshabiller ». En attendant des solutions plus systémiques, il insiste sur l’importance de la prévention, en particulier chez les plus jeunes. Il va falloir dénoncer à nos jeunes les appropriations que l’on peut faire de leurs photographies partagées sur les réseaux sociaux. Expliquez-leur que plus la combinaison qu’ils portent est légère sur ces photos, moins il sera difficile pour les turbines nues de les déshabiller. Il l’est.

Cette recommandation s’applique à tous, et en particulier aux jeunes et aux influenceurs qui aiment jouer avec leur image. Ceux qui jouent trop avec leur plastique pour plaire aux algorithmes d’Instagram ou de TikTok devront peut-être en subir les conséquences fâcheuses », prévient l’expert. En attendant un bond collectif en avant, il est du devoir de chacun d’éviter que l’IA ne s’inquiète.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *