Tecnologia

No s'acaba amb Taylor Swift: com protegir-se contra les falsificacions profundes d'IA i l'assetjament sexual

Алекс Рейн 24 Февраля, 2026
247continiousmusic

La setmana passada, imatges falses sexualment explícites de Taylor Swift feta suposadament utilitzant la intel·ligència artificial es van difondre a les xarxes socials. Va ser només l'últim exemple (i el més destacat) dels perills creixents de les falsificacions profundes i l'assetjament digital.

Swift no és la primera dona que li ha passat, ni serà l'última. És segur dir que gairebé totes les altres víctimes d'una falsificació pornogràfica tenen menys recursos que una estrella del pop multimilionària amb milions de fans a tot el món que estan molt en línia i coneixedors d'això. Però el fet que això pugui passar fins i tot a Taylor Swift ha cridat una renovada atenció al tema i a un públic més ampli. Fins i tot és una legislació federal impulsada per combatre l'abús, diuen els defensors.

Dimarts, els senadors nord-americans van presentar el bipartidisme Interrompre la Llei de 2024 d'imatges falsificades explícites i edicions no consentides (Llei DEFIANCE) per abordar i dissuadir la pornografia falsa profunda no consensuada. El projecte de llei permetria que les víctimes de falsificació digital -creada mitjançant l'ús de programari, aprenentatge automàtic, intel·ligència artificial o qualsevol altre mitjà tecnològic o generat per ordinador semblin falsament autèntiques - demandar civilment als autors, donant-los l'oportunitat de buscar justícia per primera vegada.



Les víctimes de pornografia deepfake no consensuada no han tingut gaire èxit en demandar a persones que creen, distribueixen o sol·liciten pornografia deepfake, segons Omny Miranda Martone, que va treballar amb els legisladors en el projecte de llei com a fundador i CEO de la Associació de Prevenció de la Violència Sexual (SVPA) . La tecnologia encara és força nova i, com passa amb altres qüestions socials relacionades amb la tecnologia, les lleis han de posar-se al dia. Mentrestant, la tecnologia ha avançat per facilitar encara més a qualsevol persona fer deepfakes generats per IA.

La quantitat de violència sexual contra persones quotidianes s'ha disparat.

'Fins fa uns dos anys. . . algú necessitava tenir un ordinador d'alta potència, necessitava saber molt sobre tecnologia i ser capaç de treballar amb un sistema confús i, potencialment, fins i tot construir el sistema ells mateixos. I necessitaven moltes fotos de la víctima perquè semblés realista, explica Martone. Però la tecnologia d'IA ha avançat significativament i és en el punt en què qualsevol pot crear pornografia no consensuada i deepfake d'aspecte realista, utilitzant només una o dues fotos. No necessiten saber gaire sobre tecnologia, només poden accedir a una aplicació o un lloc web al seu telèfon o ordinador i fer-ho en qüestió de segons”.

Això és al·lucinant avui, atès que el 2017, un de cada vuit Segons el Iniciativa de drets civils cibernètics .

Tenint en compte aquests avenços tecnològics, i el fet que qualsevol persona amb accés a Internet pot crear-lo fàcilment, la quantitat de violència sexual contra els individus quotidians s'ha disparat, diu Martone. Les celebritats havien estat l'objectiu més habitual per la disponibilitat de les seves imatges. Però ara [els autors] només necessiten un parell de fotos que puguin obtenir de LinkedIn o de les xarxes socials d'algú o del lloc web de la seva empresa, explica Martone.

Això és desproporcionadament perjudicial per a les dones, segons Margaret Mitchell, l'antiga co-líder de l'equip d'Intel·ligència Artificial Ètica de Google. És extremadament violent, té un efecte psicològic extremadament traumàtic per a tu si n'ets víctima. També és objectivador, de manera que influeix en altres persones perquè et vegin a través d'una lent sexual en lloc d'una lent professional. Aleshores, això vol dir que pot afectar les oportunitats, diu a 247CM.

'Les dones ja lluiten per ser vistes com a líders, per ser preses seriosament en el lloc de treball. Quan circula aquest tipus de contingut, això pot afectar la manera com les dones poden ser promogudes, accedir a més posicions de lideratge, continua Mitchell, que ara és científic en cap d'ètica a Hugging Face, una plataforma oberta per a constructors d'IA. Es filtra en tantes coses d'una manera que de vegades pot ser molt difícil de rastrejar, però influeix fonamentalment en com et veus a tu mateix, com et sents per tu mateix i com et tracten els altres.

En el cas de Swift, les imatges es van originar 4canal i un grup de Telegram utilitzat per distribuir imatges abusives de dones, va informar 404 Mitjans de comunicació . Designer, un generador gratuït d'IA de Microsoft, s'utilitza sovint per produir contingut no consensuat, segons el punt de venda. En resposta a l'informe, Microsoft va tancar una escletxa això va permetre a Designer fer porno de celebritats generat per IA.

Però, mentrestant, les imatges van inundar ràpidament X, abans conegut com Twitter. En un exemple inusual de moderació de contingut a l'era d'Elon Musk, X va instituir un bloqueig temporal en una cerca de Taylor Swift, que va frenar la propagació, però no va poder eliminar totes les imatges, CBS News informat . La resposta de X va seguir a legions de Swifties informant de les publicacions i exigint al lloc que les retirés. També va arribar després que les publicacions ja estiguessin generalitzades: ja n'havia registrat 45 milions de visualitzacions, 24.000 retuits i centenars de milers de m'agrada i adreces d'interès en 17 hores abans que se suspengués el compte d'aquest usuari verificat, segons ha informat. El Verge . El dilluns 29 de gener, el bloc havia caducat.

Tot i que SVPA fa temps que treballa amb el Congrés —Martone diu que van enviar una carta oberta a l'any passat per instar-los a assumir el tema—, li sembla que no van prendre mesures fins que les notícies de Taylor Swift es van fer molt grans.

Fins i tot si sentis que ningú no li importa les teves imatges, a la IA li importa.

Tot i així, la majoria de les víctimes de la pornografia no consensuada no tenen un alt perfil. La majoria són dones i moltes tenen identitats marginades, ja sigui la seva raça, ètnia i/o orientació sexual. SVPA, per exemple, ha treballat amb una dona que era estudiant universitària que treballava al gimnàs quan va ser colpejada per un home, a qui va rebutjar. Unes setmanes més tard, un altre membre del gimnàs va apartar la dona per fer-li saber que l'home que va rebutjar l'havia fet pornografia falsa, i havia estat mostrant a altres membres al gimnàs i la va publicar a Instagram, on va poder treure-la. Martone diu que recentment han fet porno fals d'ells, donat el seu treball sobre el tema.

Sense legislació, és difícil prendre cap recurs. Com que el contingut problemàtic es reconeix com a fals, no es considera difamació, afegeix Martone.

En qualsevol cas, com a societat, tots hauríem de treballar per evitar que es facin i comparteixin continguts no consensuats, diuen els experts. La idea que el problema està creixent i que és impossible tornar a posar el geni a l'ampolla no hauria de fomentar una sensació d'inevitabilitat o entumiment.

Per a aquells que pensen que mai es trobarien en aquest tipus de situacions, Mitchell també subratlla que la tecnologia ha permès que es torni tan habitual que qualsevol podria veure's afectat.

Tal com ho explica Mitchell: La gent hauria de ser conscient que qualsevol contingut que posi en línia podria ser escombrat per particulars o corporacions per tal de ser utilitzat com a part de la formació en IA. Per tant, potser no és que alguna foto familiar a Facebook sigui una cosa que li importi al públic en general. Però aquesta no és la qüestió. La pregunta és si aquest contingut serà recollit per una corporació tecnològica massiva d'una manera que pugui contribuir a l'objectivació de les dones?'

En última instància, és la tecnologia que cal tenir en compte i desconfiar. Fins i tot si creieu que ningú no li importa les vostres imatges, a la IA li importa, diu Mitchell. Els sistemes d'IA encara poden escombrar-los, encara es poden utilitzar per tergiversar-te i encara es poden utilitzar en qualsevol tipus de situació de venjança, i qualsevol tipus de situació en què tinguis algú que serà un actor maliciós com aquest et pot perjudicar personalment.

Com prevenir i combatre les falsificacions profundes no consensuades

    Educa't perquè puguis entendre què està passant. Sapigueu que compartir informació personal en línia és possiblement compartir aquesta informació amb el públic. Cal haver-hi una mena de reimaginar o reconèixer què és compartir contingut en línia: quan és adequat compartir coses i quan no ho és. També es tracta de que els pares parlen amb els seus fills sobre per què no està bé fer pornografia falsa dels seus companys de classe, diu Mitchell. Donar suport al periodisme. És important conèixer el paper que juga la premsa, perquè de vegades això és com l'únic contrapès per a comportaments realment problemàtics de les empreses o comportaments problemàtics que les empreses estan habilitant, explica Mitchell. 'Perquè quan hi ha mala premsa que afecta les seves accions, això afecta el que pensen els accionistes, això afecta el que pensen els capitalistes de risc i quants diners poden obtenir. Així és com fem el canvi. Tenim periodistes que escriuen sobre això. Les empreses hi presten atenció, això repercuteix a tot el mercat. Sigues un bon espectador digital. Si algú fa o comparteix pornografia no consensuada amb tu, deepfake o no, no la mireu, no hi participeu, la compartiu o fins i tot la cerqueu en línia, perquè entrenarà els algorismes per proporcionar-ne més a més persones, diu Martone. Feu un inventari digital de la vostra imatge i informació en línia. Assegureu-vos de ser proactiu a l'hora de comprovar els llocs on publiqueu imatges de la vostra cara o cos. Utilitzeu les funcions de seguretat disponibles a cada lloc o aplicació, inclòs tot allò tan bàsic com assegurar-vos que només les persones que coneixeu puguin veure les vostres fotos a Facebook. Si passa alguna cosa, diu Martone, informeu immediatament als llocs. SVPA té una guia per eliminar contingut que no voleu dels llocs, així com una guia Prevenció de la violència sexual digital per als creadors de contingut, però aquests principis els pot utilitzar qualsevol. També us pot resultar útil revisar els amplis recursos que hi ha al lloc web de la Cyber ​​Civil Rights Initiative, inclòs els seus Preguntes freqüents , Lleis estatals , i resultats de la investigació . Busqueu eines i aplicacions que alterin o protegeixen les imatges. Encara és una àrea nova, però els desenvolupadors estan treballant en tecnologia per protegir i enverinar les imatges publicades en línia, incloses eines com ara Solança . Mitchell diu que a mesura que creixi la necessitat, es desenvoluparan més i millors eines per combatre aquests problemes.