Apper for sosiale medier presenterer jevnlig tenåringer for algoritmisk valgt innhold, ofte beskrevet som «for deg», noe som implisitt antyder at det kuraterte innholdet ikke bare er «for deg», men også «om deg» – et speil som gjenspeiler viktige signaler om personen du er.
Alle brukere av sosiale medier er utsatt for disse signalene, men forskere forstår at tenåringer er på et spesielt formbart stadium i dannelsen av personlig identitet. Forskere har begynt å demonstrere at teknologi har generasjonsformende effekter , ikke bare i måten den påvirker kulturelt syn, atferd og personvern, men også i måten den kan forme personligheten blant de som vokser opp på sosiale medier.
Utbredelsen av «til deg»-meldingen reiser viktige spørsmål om hvilken innvirkning disse algoritmene har på hvordan tenåringer oppfatter seg selv og ser verden, og den subtile erosjonen av privatlivet deres, som de aksepterer i bytte mot dette synet.
Tenåringer liker sin algoritmiske refleksjon
Inspirert av disse spørsmålene spurte kollegene mine John Seberger og Afsaneh Razi fra Drexel University og jeg : Hvordan navigerer tenåringer i dette algoritmisk genererte miljøet, og hvordan gjenkjenner de seg selv i speilet det presenterer?
I vår kvalitative intervjustudie av tenåringer i alderen 13–17 år fant vi at personlig tilpasset algoritmisk innhold ser ut til å presentere det tenåringer tolker som et pålitelig speilbilde av seg selv , og at de liker opplevelsen av å se denne refleksjonen på sosiale medier veldig godt.
Tenåringene vi snakket med sier at de foretrekker sosiale medier som er helt tilpasset dem, og som viser hva de er enige i, hva de ønsker å se og dermed hvem de er.
Hvis jeg slår opp noe som er viktig for meg, vil det dukke opp som et av de beste innleggene, [og] det vil vise, liksom, folk [som meg] som har en hyggelig diskusjon.
Det viser seg at tenåringene vi intervjuet mener at algoritmer i sosiale medier, som TikTok, har blitt så gode at de ser på refleksjonene av seg selv i sosiale medier som ganske nøyaktige. Såpass at tenåringer er raske til å tilskrive innholdsavvik med selvbildet sitt som avvik – for eksempel et resultat av utilsiktet engasjement med tidligere innhold, eller bare en feil.
På et tidspunkt så jeg noe om det programmet, kanskje på TikTok, og jeg samhandlet med det uten å egentlig innse det.
Når personlig tilpasset innhold ikke er enig eller i samsvar med selvbildet deres, sier tenåringene vi intervjuet at de blar forbi det i håp om å aldri se det igjen. Selv når disse oppfattede avvikene tar form av ekstremt hypermaskulint eller «stygg» innhold, tilskriver ikke tenåringer dette noe spesifikt ved seg selv, og de hevder heller ikke at de leter etter en forklaring i sin egen atferd. Ifølge tenåringer i intervjuene våre gjør ikke speilet på sosiale medier dem mer selvreflekterende eller utfordrer selvoppfatningen deres.
En ting som overrasket oss var at selv om tenåringer var klar over at det de ser i «til deg»-feeden sin er et produkt av deres rullevaner på sosiale medieplattformer, er de stort sett uvitende om eller ubekymret over at dataene som samles inn på tvers av apper bidrar til dette selvbildet. Uansett ser de ikke «til deg»-feeden sin som en utfordring for sin selvoppfatning, langt mindre en risiko for sin selvidentitet – og for den saks skyld heller ikke noe grunnlag for bekymring i det hele tatt.
Forming av identitet
Forskning på identitet har kommet langt siden sosiologen Erving Goffman foreslo « presentasjon av selvet » i 1959. Han postulerte at folk styrer identitetene sine gjennom sosial prestasjon for å opprettholde likevekt mellom hvem de tror de er og hvordan andre oppfatter dem.
Da Goffman først foreslo teorien sin, fantes det ikke noe grensesnitt for sosiale medier som kunne holde opp et hendig speil av selvet slik det oppleves av andre. Folk var forpliktet til å skape sitt eget mosaikkbilde, avledet fra flere kilder, møter og inntrykk. I de senere årene har anbefalingsalgoritmer for sosiale medier blitt en del av det som nå er en treveisforhandling mellom selvet, publikum og algoritmen for sosiale medier.
«For deg»-tilbud skaper et privat-offentlig rom der tenåringer kan få tilgang til det de føler er en stort sett nøyaktig test av selvbildet deres. Samtidig sier de at de lett kan ignorere det hvis det virker uenig med selvbildet.
Pakten tenåringer inngår med sosiale medier, der de utveksler personopplysninger og gir avkall på personvern for å sikre seg tilgang til det algoritmiske speilet, føles som en god handel for dem. De fremstiller seg selv som trygge på å avvise eller bla forbi anbefalt innhold som tilsynelatende motsier deres selvoppfatning, men forskning viser noe annet .
De har faktisk vist seg å være svært sårbare for selvbildeforvrengning og andre psykiske helseproblemer basert på algoritmer for sosiale medier som er eksplisitt utviklet for å skape og belønne hypersensitiviteter, fikseringer og dysmorfi – en psykisk lidelse der folk fikserer på utseendet sitt.
Gitt hva forskere vet om tenåringshjernen og det stadiet av sosial utvikling – og gitt hva som med rimelighet kan antas om formbarheten til selvbilde basert på sosial tilbakemelding – tar tenåringer feil når de tror at de kan bla forbi selvidentitetsrisikoen ved algoritmer.
Innhold fra våre partnere
Intervensjoner
En del av løsningen kan være å bygge nye verktøy som bruker kunstig intelligens for å oppdage utrygge interaksjoner, samtidig som personvernet beskyttes. En annen tilnærming er å hjelpe tenåringer med å reflektere over disse «datadoblene» de har konstruert.
Mine kolleger og jeg utforsker nå dypere hvordan tenåringer opplever algoritmisk innhold og hvilke typer intervensjoner som kan hjelpe dem med å reflektere over det. Vi oppfordrer forskere i vårt felt til å utforme måter å utfordre nøyaktigheten til algoritmer og avsløre dem som reflekterende atferd og ikke-eksisterende. En annen del av løsningen kan innebære å gi tenåringer verktøy for å begrense tilgangen til dataene deres, inkludert å begrense informasjonskapsler, ha forskjellige søkeprofiler og slå av posisjonering når de bruker visse apper.
Vi tror at dette er tiltak som sannsynligvis vil redusere nøyaktigheten til algoritmer, og skape sårt tiltrengt friksjon mellom algoritmen og seg selv, selv om tenåringer ikke nødvendigvis er fornøyde med resultatene.
Få barna involvert
Nylig holdt kollegene mine og jeg en Generasjon Z-workshop med unge mennesker fra Encode Justice , en global organisasjon av elever på videregående skole og universiteter som jobber for trygg og rettferdig kunstig intelligens. Målet var å bedre forstå hvordan de tenker om livene sine under algoritmer og kunstig intelligens. Generasjon Z sier at de er bekymret, men også ivrige etter å være involvert i å forme sin egen fremtid, inkludert å redusere algoritmiske skader. En del av workshopens mål var å rette oppmerksomheten mot og fremme behovet for tenåringsdrevne undersøkelser av algoritmer og deres effekter.
Det forskere også står overfor er at vi faktisk ikke vet hva det vil si å stadig forhandle om identitet med en algoritme. Mange av oss som studerer tenåringer er for gamle til å ha vokst opp i en algoritmisk moderert verden. For tenåringene vi studerer, finnes det ingen « før AI ».
Jeg tror det er farlig å ignorere hva algoritmer gjør. Fremtiden for tenåringer kan være en der samfunnet anerkjenner det unike forholdet mellom tenåringer og sosiale medier. Dette betyr å involvere dem i løsningene, samtidig som de gir veiledning.
Nora McDonald, assisterende professor i informasjonsteknologi, George Mason University .
Denne artikkelen er publisert på nytt fra The Conversation under en Creative Commons-lisens. Les den opprinnelige artikkelen .








