SODP logo

    Nybegynnerguide til syntetiske medier og deres effekter på journalistikk

    Hva skjer? Oppfinnelsen av AI-teknologi skaper røde flagg på alle felt, inkludert journalistikk, og syntetiske medier forverrer situasjonen. Denne veiledningen fokuserer på definisjonen av syntetiske medier,…
    Oppdatert: 1. desember 2025
    Mirakel Oyedeji

    Opprettet av

    Mirakel Oyedeji

    Vahe Arabian

    Faktasjekket av

    Vahe Arabian

    Vahe Arabian

    Redigert av

    Vahe Arabian

    Hva skjer?

    Oppfinnelsen av AI-teknologi skaper røde flagg på alle felt, inkludert journalistikk, og syntetiske medier forverrer situasjonen. Denne veiledningen fokuserer på definisjonen av syntetiske medier, teknikker og, mest sjokkerende, røde flagg for journalistikk.

    Hvorfor det er viktig:

    De ulike dataformene som utgjør nyhetsinnhold er på grensen til dobbeltspill, ettersom syntetiske medier – en algoritme som kan manipulere tekst, bilder og audiovisuelt materiale – for øyeblikket er tilgjengelig for de som søker det. Med denne AI-baserte modellen er det mulig å lage ansikter og steder som ikke eksisterer, og til og med lage en digital stemmeavatar som etterligner menneskelig taleAldana-dalene 2019) Tenk deg en verden der det er ganske vanskelig å skille mellom falske og ekte nyheter, siden de som sprer falske nyheter kan endre «bevis» for å passe deres agenda. For eksempel ville ingen slutte å tro at tredje verdenskrig har begynt hvis videoer av Trump, Putin og Kim som erklærer krig ble sirkulert globalt på nettet. Selv om slike nyheter kan bli avkreftet av de involverte regjeringene, kan den psykologiske og økonomiske panikken det ville forårsake være større enn effekten av et missil.

    Graver dypere

    Syntetiske medier kan lages via tre former for generativ kunstig intelligens, nemlig Generative Adversarial Networks (GAN), Variational Autoencoders og Recurrent Neural Networks. Disse nevnte GAI-ene brukes til henholdsvis generering av bilder, videoer og tekst. Ordet generering brukes fordi det meste av medieinnholdet som lages med disse algoritmene ikke eksisterer. Syntetiske medier kan imidlertid også brukes til duplisering. Ifølge Aldana Vales bruker «Generative Adversarial Networks to nevrale nettverk (et nevralt nettverk er et datasystem som kan forutsi og modellere komplekse forhold og mønstre) som konkurrerer mot hverandre.» Det første og andre nettverket fungerer som en generator og en diskriminator hver for seg. Diskriminatoren overvåker generatoren og sørger for at ingen stein blir liggende usnudd. Etter noen «frem og tilbake»-revisjoner av duoen, vil det produserte innholdet ligne originalen. I motsetning til Generative Adversarial Networks kalles nevrale nettverk i Variational Autoencoders for koder og dekoder, siden teknikken involverer komprimering og rekonstruksjon av videoinnhold. «Dekoderen inkluderer sannsynlighetsmodellering som identifiserer sannsynlige forskjeller mellom de to, slik at den kan rekonstruere elementer som ellers ville gått tapt gjennom kodings-dekodingsprosessen.» (Aldana Vales 2019) Gjentakende nevrale nettverk fungerer ved å «gjenkjenne strukturen på et stort sett med tekst». Dette er metoden som brukes i tekst autokorrigering telefon apk. Disse teknikkene brukes i ulike prosjekter som; GauGAN, Ansikt til ansikt, og GPT-2-modellen. Den nyeste bruken av syntetiske medier finnes i Siri eller Alexa. Disse virtuelle assistentene har nå muligheten til å «gjøre tekst om til lyd og etterligne menneskelig tale». I en artikkel fra 2017 med tittelen «AI-assistert porno er her, og vi er alle knullet», avslørte Vice sirkulasjonen av en falsk pornovideo, noe som ikke er et problem fordi de fleste plottene som portretteres i pornofilmer er falske (LoL); bortsett fra at skuespilleren hadde ansiktet til en populær ikke-pornografisk skuespillerinne, Gal Gadot (Wonder woman). I 2018 ble det også sirkulert «en video som viser president Barack Obama snakke om risikoen ved manipulerte videoer» på Buzzfeed. Det rare med denne videoen er at det AI-genererte motivet har Obamas ansikt og Jordan Peeles stemme, takket være syntetiske medier. Det pågår en kampanje mot den potensielle skaden syntetiske medier har på nyhetsautentisitet; imidlertid, «Utover rapportering ... fokuserer nyhetsredaksjoner på deteksjon og validering av informasjon fra syntetiske medier. Wall Street Journal opprettet for eksempel en nyhetsredaksjonsguide og komité for å oppdage deepfakes. New York Times nylig annonsert som utforsker et blokkjedebasert system for å bekjempe feilinformasjon på nett. (Aldana Vales 2019)

    Bunnlinjen

    Syntetiske medier kan hjelpe nyhetsbyråer med å bryte språkbarrierer sømløst. Det kan også oppmuntre til spredning av falske nyheter. Selv om det er umulig å stoppe gigantiske teknologiselskaper fra å dykke ned i forskning på kunstig intelligens, kan journalister lære hvordan de kan kontrollere skadene som syntetiske medier forårsaker.

    0
    Vil gjerne ha tankene dine, kommenter gjerne. x
    ()
    x