Förra veckan, sexuellt explicita deepfake-bilder av Taylor Swift enligt uppgift gjorda med hjälp av artificiell intelligens spreds över sociala medier. Det var bara det senaste – och mest uppmärksammade – exemplet på de växande farorna med deepfakes och digitala trakasserier.
Swift är inte den första kvinnan detta har råkat ut för, och hon kommer inte heller att vara den sista. Det är säkert att säga att nästan alla andra offer för en pornografisk deepfake har färre resurser än en miljardär popstjärna med miljontals fans runt om i världen som är väldigt online och kunniga om det. Men det faktum att detta kan hända till och med Taylor Swift har väckt förnyad uppmärksamhet åt frågan och till en bredare publik. Det är till och med en kickstartad federal lagstiftning för att bekämpa övergreppen, säger förespråkarna.
På tisdagen presenterade amerikanska senatorer det tvåpartiska Disrupt Explicit Forged Images and Non-Consensual Edit Act of 2024 (DEFIANCE Act) för att ta itu med och avskräcka djup falsk pornografi utan samtycke. Lagförslaget skulle tillåta offer för digital förfalskning - skapad genom användning av programvara, maskininlärning, artificiell intelligens eller andra datorgenererade eller tekniska medel för att felaktigt framstå som äkta - att stämma förövarna civilrättsligt, vilket ger dem en möjlighet att söka rättvisa för första gången.
Offer för djupfalsk pornografi utan samtycke har inte haft någon större framgång med att stämma människor som skapar, distribuerar eller begär djupfalsk pornografi, enligt Omny Miranda Martone, som arbetade med lagstiftare om lagförslaget som grundare och VD för Sexual Violence Prevention Association (SVPA) . Tekniken är fortfarande ganska ny, och som med andra samhällsfrågor kring teknik måste lagarna komma ikapp. Under tiden har tekniken utvecklats för att göra det ännu enklare för vem som helst att göra AI-genererade deepfakes.
Mängden sexuellt våld mot vardagliga individer har skjutit i höjden.
'Tills för ungefär två år sedan. . . någon behövde ha en kraftfull dator, de behövde veta mycket om teknik och kunna arbeta med ett förvirrande system och potentiellt till och med bygga systemet själva. Och de behövde många bilder av offret för att det skulle se realistiskt ut, förklarar Martone. Men AI-tekniken har utvecklats avsevärt, och det är vid den punkt där vem som helst kan skapa verkligt realistiskt utseende icke-samfälligt, djupt falskt pornografi, med bara en eller två foton. De behöver inte veta mycket om teknik, de kan bara gå in på en app eller en webbplats på sin telefon eller dator och bara göra det på några sekunder.
Det är häpnadsväckande idag, med tanke på att 2017, en av åtta användare av sociala medier rapporterade att de var föremål för pornografi utan samtycke och en av 20 vuxna på sociala medier hade varit förövare, enligt Cyber Civil Rights Initiative .
Med tanke på dessa tekniska framsteg - och det faktum att vem som helst med tillgång till internet enkelt kan skapa det - har mängden sexuellt våld mot vardagliga individer skjutit i höjden, säger Martone. Kändisar hade varit det vanligaste målet på grund av tillgängligheten av deras bilder. Men nu behöver [gärningsmän] bara ett par bilder som de kan få från någons LinkedIn eller sociala medier eller deras företags webbplats, förklarar Martone.
Detta är oproportionerligt skadligt för kvinnor, enligt Margaret Mitchell, den tidigare medledaren för Googles team för etisk artificiell intelligens. Det är extremt kränkande, det har en extremt traumatisk psykologisk effekt på dig om du är ett offer för det. Det är också objektiverande, så det påverkar andra människor att se dig genom en sexuell lins i motsats till en professionell lins. Då betyder det att det kan påverka möjligheter, säger hon till 247CM.
”Kvinnor kämpar redan för att ses som ledare, att bli tagna på allvar på arbetsplatsen. När den här typen av innehåll svävar runt kan det påverka hur kvinnor kan bli befordrade, komma in i fler ledande positioner, fortsätter Mitchell, som nu är chefsvetare för etik på Hugging Face, en öppen plattform för AI-byggare. Det sipprar in i så många saker på ett sätt som ibland kan vara riktigt svårt att spåra, men det påverkar i grunden hur du ser dig själv, hur du känner för dig själv och hur andra människor behandlar dig.
I Swifts fall härrörde bilderna från 4chan och en grupp på Telegram som används för att distribuera våldsamma bilder av kvinnor, rapporterade 404 Media . Designer, en gratis Microsoft AI-generator, används ofta för att producera innehåll utan samtycke, enligt outlet. Som svar på rapporteringen har Microsoft stängt ett kryphål som gjorde det möjligt för Designer att göra AI-genererad kändisporr.
Men under tiden svämmade bilderna snabbt över X, tidigare känt som Twitter. I ett ovanligt exempel på innehållsmoderering under Elon Musk-eran, införde X en tillfällig blockering på en sökning av Taylor Swift, vilket bromsade spridningen, men det gick inte att ta bort alla bilder, CBS News rapporterad . X:s svar följde på att legioner av Swifties rapporterade inläggen och krävde att sajten skulle ta bort dem. Det kom också efter att inläggen redan var utbredda - en hade redan fått 45 miljoner visningar, 24 000 retweets och hundratusentals gilla-markeringar och bokmärken på 17 timmar innan den verifierade användarens konto stängdes av, enligt The Verge . På måndagen den 29 januari hade spärren gått ut.
Även om SVPA har arbetat med kongressen ett tag — Martone säger att de skickade ett öppet brev till förra året och uppmanade dem att ta på sig frågan — verkar det för Martone att de inte vidtog åtgärder förrän Taylor Swift-nyheterna blev riktigt stora.
Även om du känner att ingen bryr sig om dina bilder, bryr AI sig.
Ändå är de flesta offer för pornografi utan samtycke inte högprofilerade. De flesta är kvinnor och många har marginaliserade identiteter, oavsett om det är deras ras, etnicitet och/eller sexuella läggning. SVPA har till exempel arbetat med en kvinna som var collegestudent och tränade på gymmet när hon blev påkörd av en man som hon tackade nej till. Några veckor senare drog en annan gymmedlem kvinnan åt sidan för att låta henne veta att mannen hon avvisade hade gjort deepfake pornografi av henne - och hade visat andra medlemmar på gymmet och lagt upp det på Instagram, där hon kunde få det borttaget. Martone säger att de nyligen har gjort deepfake porr av dem, med tanke på deras arbete med frågan.
Utan lagstiftning är det svårt att ta någon regress. Eftersom det problematiska innehållet erkänns som falskt, betraktas det inte som ärekränkning, tillägger Martone.
I vilket fall som helst bör vi som samhälle alla arbeta för att förhindra att innehåll utan samtycke skapas och delas, säger experter. Tanken att problemet växer och att det är omöjligt att lägga tillbaka anden i flaskan borde inte skapa en känsla av oundviklighet eller domningar.
För dem som tror att de aldrig skulle hamna i den här typen av situationer, betonar Mitchell också att tekniken har låtit det bli så vanligt att vem som helst kan påverkas.
Som Mitchell förklarar det: 'Människor bör vara medvetna om att allt innehåll de lägger ut online potentiellt kan sopas upp av privatpersoner eller av företag för att användas som en del av AI-utbildning. Så det kanske inte är så att någon familjebild på Facebook är något som allmänheten bryr sig om. Men det är inte frågan. Frågan är, kommer detta innehåll att plockas upp av ett enormt tekniskt företag på ett sätt som kan hjälpa till att främja objektifieringen av kvinnor?'
I slutändan är det tekniken som du måste vara medveten om och försiktig med. Även om du känner att ingen bryr sig om dina bilder, bryr sig AI, säger Mitchell. AI-system kan fortfarande sopa upp dem, de kan fortfarande användas för att förvränga dig, och de kan fortfarande användas i alla slags hämndsituationer, och alla slags situationer där du har någon som kommer att vara en illvillig aktör som kan skada dig personligen.