Utvecklingen av AI har varit enormt snabb de senaste åren. Allt från smarta hem till levande bilder är produkten av denna utveckling. Idag försökte vi överföra en persons ansiktsuttryck till en annan person på en vanlig bild och fick en levande bild. Detta är möjligt idag med hjälp av en så kallad Thin-Plate Spline Motion Model for Image Animation. För att göra detta har man en driving video och en source video/image. När dessa har laddats upp på rätt plats då får man animerade sekvenser med rörelse överförd från driving video och objektet taget från source image.
En sådan utveckling av AI kan vara lite skrämmande för en del människor, då AI oftast målas upp som något skrämmande i många filmer. Men en sådan utveckling får oss att tänka lite extra på att man ska vara mer källkritisk.
Middlecon tackar Bella Poarch för hennes video som inspirerade till att göra denna Image Animation.
För dig som är intresserad finns mer information via länken: https://huggingface.co/spaces/CVPR/Image-Animation-using-Thin-Plate-Spline-Motion-Model
Se videon här: