Med tekniker som vattenmärkning som delvis förhindrar otillåten bildmanipulation, har en MIT-forskare uppfunnit ett verktyg som heter “PhotoGuard” – som kommer att förhindra AI-verktygen från att manipulera bilder utan tillstånd – och värdesätter en artists liv.
Blockera otillåten bildmanipulation
Med Generativ AI som skapar oändliga möjligheter, är forskare och konstnärer oroliga för att deras arbete tas för givet. Och detta är mer oroande för designers, vars arbete utnyttjas av AI för ingenting i gengäld.
Verktyg som Dall-E och Stable Diffusion kan manipulera en bild efter önskemål, även om vissa brister finns. Men eftersom de blir mer potenta i varje uppdatering, är artister av alla slag på jakt efter att stoppa det. Och MIT:s nya verktyg kommer att göra det och ge dem det rykte de förtjänar.
Namngiven MIT CSAIL-verktyget kommer att stoppa obehörig manipulation av bilder på flera sätt. En version är genom att ändra utvalda pixlar i en vision för att förvirra AI:s förmåga att förstå vad bilden är. Forskare kallade dessa förändringar “” och är osynliga för det mänskliga ögat.
Nästa upp är en “” attack där målbilden (som kommer att manipuleras av AI) är inställd med algoritmer för att förvirra AI:n. Denna process innebär att man lägger till komplex matematik för att laga positionen och färgen för varje pixel i en bild.
Och sist, den mer avancerade “”-modellen kan kamouflera en bild som en annan bild i AI:s ögon. Verktyget matar en falsk målbild till AI:n att arbeta på, där alla ändringar tillämpas på den falska versionen samtidigt som originalet behålls intakt. Detta resulterar i att en bild som ser orealistiskt ut.
På tal om detta nya verktyg, sa MIT doktorand och huvudförfattaren till denna artikel, Hadi Salman