đ Microsofts verktyg avslöjar deepfakes
Genom att analysera detaljer som Àr omöjliga för ögat att upptÀcka kan Microsofts AI-teknik ange sannolikheten för att filmer, foton och ljudinspelningar Àr förfalskade.
Dela artikeln
Deepfakes Àr falska videor, foton och ljudfiler som Àr vÀldigt svÄra att skilja frÄn Àkta vara. De kan förstÄs göra problemet med desinformation vÀrre Àn det redan Àr. Men Microsoft har byggt ett verktyg som ska hjÀlpa oss att sÄlla agnarna frÄn vetet.
Microsoft Video Authenticator anvÀnder AI för att avgöra hur stor risken Àr att en video blivit manipulerad. Verktyget visar i realtid hur stor sannolikhet det Àr att nÄgon manipulerat en bildruta i filmen. SÄ Àven om det bara Àr en vÀldigt liten del av videon som manipulerats kan Microsoft Video Authenticator ge tydligt besked om vilket parti i filmen som inte gÄr att lita pÄ.
För att angripa problemet frĂ„n andra hĂ„llet har Microsoft Ă€ven utvecklat en teknik dĂ€r den som skapar en video ska kunna ge den en âvattenstĂ€mpelâ. Om nĂ„got Ă€ndras i filen mĂ€rks det direkt och webblĂ€sare med mera kan lĂ€gga upp ett meddelande om att filmen förfalskats.
För den som vill lÀra sig mer om deepfakes har Microsoft tillsammans med bland andra USA Today skapat ett quiz. HÀr det gÄr att se hur bra du Àr pÄ att upptÀcka deepfakes.