AI-genererade fakevideos, även kallat deepfakes, är ett ökande problem på diverse sociala medie-plattformar. Oftast används kända människor i alla dess former för att påverka politiskt eller lura dig på dina pengar.
Nu meddelar Youtube att man utökar sitt skydd mot AI-genererade deepfakes och kommer nu att varna politiker, myndighetspersoner och journalister när deras ansikten används i manipulerade videor.
Satsningen bygger på plattformens teknik för ansiktsigenkänning, liknande Content ID. Systemet identifierar AI-genererat innehåll där en persons ansiktslikhet förekommer och informerar den berörda parten som därefter kan begära att videon tas bort.
Tidigare var funktionen begränsad till Youtubes partnerprogram men nu inkluderas även offentliga företrädare och reportrar utanför programmet. Youtube betonar att innehåll som fastnar i filtret inte automatiskt tas bort utan undantag ska göras för satir och parodi medan material som bryter mot plattformens integritetsregler kan plockas ner efter granskning.
För att omfattas måste personen verifiera sin identitet via Google. Företaget uppger att insamlad data inte används för att träna AI-modeller.
I samband med beskedet ställer sig YouTube bakom det amerikanska lagförslaget NO FAKES Act, som ska ge ett federalt skydd för en individs rätt till sin egen bild och röst. Vanliga användare utan offentlig roll omfattas dock ännu inte av det utökade skyddet.