La setmana passada, imatges falses sexualment explícites de Taylor Swift feta suposadament utilitzant la intel·ligència artificial es van difondre a les xarxes socials. Va ser només l'últim exemple (i el més destacat) dels perills creixents de les falsificacions profundes i l'assetjament digital.
Swift no és la primera dona que li ha passat, ni serà l'última. És segur dir que gairebé totes les altres víctimes d'una falsificació pornogràfica tenen menys recursos que una estrella del pop multimilionària amb milions de fans a tot el món que estan molt en línia i coneixedors d'això. Però el fet que això pugui passar fins i tot a Taylor Swift ha cridat una renovada atenció al tema i a un públic més ampli. Fins i tot és una legislació federal impulsada per combatre l'abús, diuen els defensors.
Dimarts, els senadors nord-americans van presentar el bipartidisme Interrompre la Llei de 2024 d'imatges falsificades explícites i edicions no consentides (Llei DEFIANCE) per abordar i dissuadir la pornografia falsa profunda no consensuada. El projecte de llei permetria que les víctimes de falsificació digital -creada mitjançant l'ús de programari, aprenentatge automàtic, intel·ligència artificial o qualsevol altre mitjà tecnològic o generat per ordinador semblin falsament autèntiques - demandar civilment als autors, donant-los l'oportunitat de buscar justícia per primera vegada.
Les víctimes de pornografia deepfake no consensuada no han tingut gaire èxit en demandar a persones que creen, distribueixen o sol·liciten pornografia deepfake, segons Omny Miranda Martone, que va treballar amb els legisladors en el projecte de llei com a fundador i CEO de la Associació de Prevenció de la Violència Sexual (SVPA) . La tecnologia encara és força nova i, com passa amb altres qüestions socials relacionades amb la tecnologia, les lleis han de posar-se al dia. Mentrestant, la tecnologia ha avançat per facilitar encara més a qualsevol persona fer deepfakes generats per IA.
La quantitat de violència sexual contra persones quotidianes s'ha disparat.
'Fins fa uns dos anys. . . algú necessitava tenir un ordinador d'alta potència, necessitava saber molt sobre tecnologia i ser capaç de treballar amb un sistema confús i, potencialment, fins i tot construir el sistema ells mateixos. I necessitaven moltes fotos de la víctima perquè semblés realista, explica Martone. Però la tecnologia d'IA ha avançat significativament i és en el punt en què qualsevol pot crear pornografia no consensuada i deepfake d'aspecte realista, utilitzant només una o dues fotos. No necessiten saber gaire sobre tecnologia, només poden accedir a una aplicació o un lloc web al seu telèfon o ordinador i fer-ho en qüestió de segons”.
Això és al·lucinant avui, atès que el 2017, un de cada vuit Segons el Iniciativa de drets civils cibernètics .
Tenint en compte aquests avenços tecnològics, i el fet que qualsevol persona amb accés a Internet pot crear-lo fàcilment, la quantitat de violència sexual contra els individus quotidians s'ha disparat, diu Martone. Les celebritats havien estat l'objectiu més habitual per la disponibilitat de les seves imatges. Però ara [els autors] només necessiten un parell de fotos que puguin obtenir de LinkedIn o de les xarxes socials d'algú o del lloc web de la seva empresa, explica Martone.
Això és desproporcionadament perjudicial per a les dones, segons Margaret Mitchell, l'antiga co-líder de l'equip d'Intel·ligència Artificial Ètica de Google. És extremadament violent, té un efecte psicològic extremadament traumàtic per a tu si n'ets víctima. També és objectivador, de manera que influeix en altres persones perquè et vegin a través d'una lent sexual en lloc d'una lent professional. Aleshores, això vol dir que pot afectar les oportunitats, diu a 247CM.
'Les dones ja lluiten per ser vistes com a líders, per ser preses seriosament en el lloc de treball. Quan circula aquest tipus de contingut, això pot afectar la manera com les dones poden ser promogudes, accedir a més posicions de lideratge, continua Mitchell, que ara és científic en cap d'ètica a Hugging Face, una plataforma oberta per a constructors d'IA. Es filtra en tantes coses d'una manera que de vegades pot ser molt difícil de rastrejar, però influeix fonamentalment en com et veus a tu mateix, com et sents per tu mateix i com et tracten els altres.
En el cas de Swift, les imatges es van originar 4canal i un grup de Telegram utilitzat per distribuir imatges abusives de dones, va informar 404 Mitjans de comunicació . Designer, un generador gratuït d'IA de Microsoft, s'utilitza sovint per produir contingut no consensuat, segons el punt de venda. En resposta a l'informe, Microsoft va tancar una escletxa això va permetre a Designer fer porno de celebritats generat per IA.
Però, mentrestant, les imatges van inundar ràpidament X, abans conegut com Twitter. En un exemple inusual de moderació de contingut a l'era d'Elon Musk, X va instituir un bloqueig temporal en una cerca de Taylor Swift, que va frenar la propagació, però no va poder eliminar totes les imatges, CBS News informat . La resposta de X va seguir a legions de Swifties informant de les publicacions i exigint al lloc que les retirés. També va arribar després que les publicacions ja estiguessin generalitzades: ja n'havia registrat 45 milions de visualitzacions, 24.000 retuits i centenars de milers de m'agrada i adreces d'interès en 17 hores abans que se suspengués el compte d'aquest usuari verificat, segons ha informat. El Verge . El dilluns 29 de gener, el bloc havia caducat.
Tot i que SVPA fa temps que treballa amb el Congrés —Martone diu que van enviar una carta oberta a l'any passat per instar-los a assumir el tema—, li sembla que no van prendre mesures fins que les notícies de Taylor Swift es van fer molt grans.
Fins i tot si sentis que ningú no li importa les teves imatges, a la IA li importa.
Tot i així, la majoria de les víctimes de la pornografia no consensuada no tenen un alt perfil. La majoria són dones i moltes tenen identitats marginades, ja sigui la seva raça, ètnia i/o orientació sexual. SVPA, per exemple, ha treballat amb una dona que era estudiant universitària que treballava al gimnàs quan va ser colpejada per un home, a qui va rebutjar. Unes setmanes més tard, un altre membre del gimnàs va apartar la dona per fer-li saber que l'home que va rebutjar l'havia fet pornografia falsa, i havia estat mostrant a altres membres al gimnàs i la va publicar a Instagram, on va poder treure-la. Martone diu que recentment han fet porno fals d'ells, donat el seu treball sobre el tema.
Sense legislació, és difícil prendre cap recurs. Com que el contingut problemàtic es reconeix com a fals, no es considera difamació, afegeix Martone.
En qualsevol cas, com a societat, tots hauríem de treballar per evitar que es facin i comparteixin continguts no consensuats, diuen els experts. La idea que el problema està creixent i que és impossible tornar a posar el geni a l'ampolla no hauria de fomentar una sensació d'inevitabilitat o entumiment.
Per a aquells que pensen que mai es trobarien en aquest tipus de situacions, Mitchell també subratlla que la tecnologia ha permès que es torni tan habitual que qualsevol podria veure's afectat.
Tal com ho explica Mitchell: La gent hauria de ser conscient que qualsevol contingut que posi en línia podria ser escombrat per particulars o corporacions per tal de ser utilitzat com a part de la formació en IA. Per tant, potser no és que alguna foto familiar a Facebook sigui una cosa que li importi al públic en general. Però aquesta no és la qüestió. La pregunta és si aquest contingut serà recollit per una corporació tecnològica massiva d'una manera que pugui contribuir a l'objectivació de les dones?'
En última instància, és la tecnologia que cal tenir en compte i desconfiar. Fins i tot si creieu que ningú no li importa les vostres imatges, a la IA li importa, diu Mitchell. Els sistemes d'IA encara poden escombrar-los, encara es poden utilitzar per tergiversar-te i encara es poden utilitzar en qualsevol tipus de situació de venjança, i qualsevol tipus de situació en què tinguis algú que serà un actor maliciós com aquest et pot perjudicar personalment.