2022-03-04

Konstgjorda ansikten

Vem är detta? Ingen – hon finns inte. Bilden är genererad av ett dataprogram.

Att få tag på den var inte svårt: Jag gick till this-person-does-not-exist.com. Om du går till den sidan så kommer du att få upp ett annat ansikte på någon som inte finns. (Men notera den märkliga "diamanten" som svävar nedanför örhänget.)

… Bilden är ju väldigt realistisk. Det är inte helt uppenbart att det här är en människa som över huvud taget inte existerar utan är helt AI-skapad. Men det finns ändå viss metodik som man kan tillämpa för att avgöra …

- Henrik Sköld i AI-skapade personer [eller ansikten då], SVT 2 mars 2022

SVT tar upp AI-ansikten med anledning av gallrande i trollträsket: Facebook och Twitter hade tagit bort en mängd fejkade konton som prytts av fejkade profilbilder.

Jag är osäker på hur användbar den (ytliga) kunskap om AI-ansikten som vi får ta del av är i det sammanhanget; ska man avgöra om en avsändare är på riktigt eller inte så finns det som regel andra metoder som är enklare och bättre. Men ämnet är intressant i sig. Och att känna till några fundament där skadar definitivt inte.

Till att börja med kan man konstatera att SVT:s snabbkoll inte är helt korrekt. Som att bakgrunderna skulle vara enhetliga, enfärgade ytor. Men redan i Karras et al (se nedan) finns gott om exempel på icke-uniforma bakgrunder. Inte för att de är lika perfekta som ansiktena … Ofta utgörs de av oskarpa halvmönster som vid första påseendet kan påminna om något, men som vid en närmare titt är mer mystiska. Bilderna #1 och #3 ovan är rätt bra exempel.

Den enklaste, snabbaste och säkraste tekniken för att avslöja fejk-fejsen riktar in sig på ögonen. (Märkligt nog nämns den inte i SVT:s kortkorta genomgång.)

Här har jag tagit tre bilder och lagt dem som halvgenomskinliga lager på varann. Notera att ögonen sitter på samma ställe. Det räcker med ett fåtal bilder för att mönstret ska börja framträda. Om man ska avslöja fejkade profilbilder på sociala medier är det här det enklaste sättet.

Jag har fortfarande inte vant mig vid att programmet kan skapa fullkomligt fotorealistiska och övertygande bilder, samtidigt som det kan göra missar som ingen människa skulle göra. Som när det misslyckas med att tota ihop trycket på en mössa.

En otippad akilleshäl är – har varit..? – örhängen. Av någon anledning har programmet svårt att hålla koll på när ett örhänge lagts in, och inser därmed inte när det kan vara lämpligt att lägga in ett till. Samtidigt som det utan problem förser folk med två ögon, två öron osv.

Öron är ännu en utmaning, av någon anledning. Återigen kan man tycka att öron borde vara en smal sak för ett program som fixar nättopp perfekta ögon, perfekt hår och så vidare … Icke desto mindre blir öronen ofta lite sådär, eller värre. Som en påminnelse om att det är artificiell intelligens vi har att göra med, inte naturlig.

OK, ibland slinter programmet. Ibland rejält. Det här är ett rätt milt exempel på hur det kan bli.

Vid en snabb titt verkar det här helt OK. Men vad är hår och vad är pannband? Har hon klistrat fast hår vid pannbandet och färgat det? Tar man upp bilden i större format ser det helkonstigt ut. (Resan "helt OK – helkonstigt" görs ofta i sammanhanget.) Då ser man även ett hårstrå på hakan, som en ytterst ovanlig skäggväxt.

Eftersom resultaten fortfarande kan vara fotorealistiska, så kan det bli desto läskigare när programmet dabbar sig. Återigen är detta exempel mycket beskedligt, jämfört med vad man kan få fram. :-)


Som avrundning en färsk och lite mer detaljerad genomgång av AI-genererade ansikten. Gjord av Bellingcat, som bara gör bra saker.


- Svit ur Karras et al

Beträffande programmet på this-person-sidan så kan det nämnas att programmet som används där är från 2018. Läs mer om det på Wikipedia: StyleGAN.

Förkortningen GAN står för generative adversial network = två nätverk som tävlar mot varandra. I det här fallet ägnar sig det ena nätverket åt att skapa ansikten, det andra att avgöra om de är äkta eller fejk. "Betygen" blir feedback åt det första nätverket, som efterhand lär sig vad som fungerar. När det andra nätverket luras tillräckligt ofta, är "skolgången" färdig.

För att sammanfatta rejält … Den som verkligen vill fördjupa sig i StyleGAN kan ta del av Karras, Laine och Aila: A Style-Based Generator Architecture for Generative Adversarial Networks (2019) [PDF].

Bonus: Lite information om AI-ansikten från this-person-does-not-exist-sidan. Notera att Karras et al jobbar på Nvidia, mest känt för sina grafikkort, och Uber som nämns nedan är verkligen "taxi-Uber".

An interesting point is that the creation of photographs of non-existent people was a by- product: the main goal was to train the AI to recognize fake faces and faces in general. The company needed this to improve the performance of its video cards by automatically recognizing faces and applying other rendering algorithms to them. However, since the StyleGAN code is publicly available, an engineer at Uber [Phillip Wang] was able to take it and create a random face generator that rocked the internet.


Inga kommentarer: