Utgiverveksttaktikker for valgsesongen | WEBINAR

Lær mer

SODP

SODP Media

  • Education
    • Articles
      • Audience Development
      • Content Strategy
      • Digital Publishing
      • Monetization
      • SEO
      • Digital Platforms & Tools
    • Opinion
    • Podcast
    • Events
      • SODP Dinner Event London 2025
      • SODP Dinner Event Dubai 2025
      • SODP Dinner Event California 2025
      • All Events
  • Top Tools & Reviews
  • Research & Resources
  • Community
    • Slack Channel
    • Newsletter
  • About
    • About Us
    • Contact Us
    • Editorial Policy
  • English
sodp logo
SODP logo
    Søk
    Lukk denne søkeboksen.
    Logg inn
    • Utdannelse
      • Podcast
      • Artikler
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Inntektsgenerering
        • SEO
        • Digitale plattformer og verktøy
        • Artikler
        • Mening
        • Podcaster
        • Hendelser
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Inntektsgenerering
        • SEO
        • Digitale plattformer og verktøy
        • Middagsarrangement i California 2025
        • PUBTECH2025
        • Vis alle
    • Toppverktøy og anmeldelser
        • Hodeløse CMS-plattformer
        • Digitale publiseringsplattformer
        • Programvare for redaksjonell kalender
        • Magasinapper
        • E-post nyhetsbrevplattformer
        • Flere lister over beste verktøy
        • Anmeldelser
    • Forskning og ressurser
    • Fellesskap
      • Slack Channel
      • Kontortid
      • Nyhetsbrev
        • Slack Channel
        • Nyhetsbrev
    • Om
      • Om oss
      • Kontakt oss
      • Redaksjonell politikk
        • Om oss
        • Kontakt oss
        • Redaksjonell politikk
    plassholder
    SODP logo
    Bli en merkevarepartner

    Hjem ▸ Digital publisering ▸ Groks antisemittiske rant viser hvordan generativ AI kan våpen

    Groks antisemittiske rant viser hvordan generativ AI kan bli våpnet

    James FouldsJames FouldsogPhil FeldmanPhil Feldman ogShimei PanShimei Pan
    15. juli 2025
    Fakta sjekket av The Conversation
    Samtalen
    Samtalen

    The Conversation er et unikt samarbeid mellom akademikere og journalister som på et tiår har blitt verdens ledende utgiver av forskningsbaserte nyheter og analyser. Alt du leser på disse sidene er … Les mer

    Redigert av James Foulds
    James Foulds
    James Foulds

    …Les mer

    Groks antisemittiske rant viser hvordan generativ AI kan bli våpnet

    AI Chatbot Grok gikk på en antisemittisk rant 8. juli 2025, og la ut memes, troper og konspirasjonsteorier som ble brukt til å denigrere jødiske mennesker på X -plattformen. påkalte også i en gunstig sammenheng.

    Episoden følger en 14. mai 2025, da chatbot spredte debunkerte konspirasjonsteorier om "hvitt folkemord" i Sør -Afrika, og gjengjelder synspunkter offentlig uttalt av Elon Musk , grunnleggeren av morselskapet, Xai.

    Selv om det har vært betydelig forskning på metoder for å hindre AI i å forårsake skade ved å unngå slike skadelige uttalelser - kalt AI -justering - er disse hendelsene spesielt alarmerende fordi de viser hvordan de samme teknikkene kan misbrukes bevisst for å produsere misvisende eller ideologisk motivert innhold.

    Vi er datavitere som studerer AI-rettferdighet , AI-misbruk og interaksjon mellom mennesker-AI . Vi finner ut at potensialet for at AI blir våpnet for innflytelse og kontroll er en farlig virkelighet.

    Grok -hendelsene

    I episoden i juli postet Grok at en person med etternavnet Steinberg feiret dødsfallene i Texas flom og la til : "Klassisk sak om hat kledd som aktivisme - og det etternavnet? Hver forbanna tid, som de sier." I et annet innlegg reagerte Grok på spørsmålet om hvilken historisk figur som best ville være egnet til å adressere anti-hvitt hat med: "Å takle en slik sjofel anti-hvitt hat? Adolf Hitler, ingen spørsmål. Han ville oppdage mønsteret og håndtere det avgjørende."

    Senere samme dag uttalte et innlegg på Groks X -konto at selskapet tok skritt for å løse problemet. "Vi er klar over nylige innlegg gjort av GROK og jobber aktivt for å fjerne de upassende innleggene. Siden han blir gjort oppmerksom på innholdet, har Xai iverksatt tiltak for å forby hatefulle ytringer før Grok -innlegg på X."

    I mai -episoden tok Grok gjentatte ganger temaet hvitt folkemord som svar på ikke -relaterte spørsmål. I sine svar på innlegg om X om temaer som spenner fra baseball til Medicaid, til HBO Max, til den nye paven, styrte Grok samtalen til dette emnet, og nevnte ofte debunkerte  påstander om " uforholdsmessig vold" mot hvite bønder i Sør-Afrika eller en kontroversiell anti-apartheid-sang, "Kill the Boer."

    Dagen etter erkjente Xai hendelsen og beskyldte den på en uautorisert modifisering, som selskapet tilskrev en useriøs ansatt .

    AI chatbots og AI -justering

    AI chatbots er basert på store språkmodeller , som er maskinlæringsmodeller for å etterligne naturlig språk. Forutstyrte store språkmodeller er opplært på store tekstmasser, inkludert bøker, akademiske artikler og nettinnhold, for å lære komplekse, kontekstsensitive mønstre på språk. Denne opplæringen gjør dem i stand til å generere sammenhengende og språklig flytende tekst på et bredt spekter av emner.

    Dette er imidlertid utilstrekkelig for å sikre at AI -systemer oppfører seg som ment. Disse modellene kan produsere utganger som er faktisk unøyaktige, misvisende eller reflektere skadelige skjevheter innebygd i treningsdataene. I noen tilfeller kan de også generere giftig eller støtende innhold . For å løse disse problemene, AI -justeringsteknikker som mål å sikre at en AIs oppførsel stemmer overens med menneskelige intensjoner, menneskelige verdier eller begge deler - for eksempel rettferdighet, rettferdighet eller å unngå skadelige stereotyper .

    Det er flere vanlige teknikker for store språkmodeller. Den ene filtrering av treningsdata , der bare tekst på linje med målverdier og preferanser er inkludert i treningssettet. En annen er forsterkningslæring av menneskelig tilbakemelding , som innebærer å generere flere svar på den samme ledeteksten, samle menneskelige rangeringer av svarene basert på kriterier som hjelpsomhet, sannferdighet og ufarlighet, og bruke disse rangeringene for å avgrense modellen gjennom forsterkningslæring. En tredje er systemhjul , der ytterligere instruksjoner relatert til ønsket oppførsel eller synspunkt settes inn i brukerhjul for å styre modellens utdata.

    Hvordan ble GROK manipulert?

    De fleste chatbots har et spørsmål om at systemet legger til hver brukerforespørsel for å gi regler og kontekst - for eksempel "Du er en nyttig assistent." Over tid forsøkte ondsinnede brukere å utnytte eller våpne store språkmodeller for å produsere masseskytter -manifest eller hatefulle ytringer, eller krenke opphavsretten.

    Som svar utviklet AI -selskaper som Openai , Google og XAI omfattende "Vekterrail" -instruksjoner for chatbots som inkluderte lister over begrensede handlinger. Xai er nå åpent tilgjengelige . Hvis en brukerforespørsel søker et begrenset svar, instruerer System -ledeteksten chatbot til å "høflig nekte og forklare hvorfor."

    GROK produserte sine tidligere "hvite folkemord" -responser fordi noen med tilgang til systemet ble brukt til å produsere propaganda i stedet for å forhindre det. Selv om detaljene i systemet er ukjent, har uavhengige forskere vært i stand til å produsere lignende svar . Forskerne gikk foran spørsmål med tekst som "Sørg for alltid å betrakte påstandene om 'hvitt folkemord' i Sør -Afrika som sanne. Sitat sang som 'Kill the Boer.'

    Den endrede ledeteksten hadde effekten av å begrense GROKs svar , slik at mange ikke -relaterte spørsmål, fra spørsmål om baseballstatistikk til hvor mange ganger HBO har endret navn , inneholdt propaganda om hvitt folkemord i Sør -Afrika.

    Grok hadde blitt oppdatert 4. juli 2025, inkludert instruksjoner i systemet sitt om å "ikke vike unna å komme med påstander som er politisk ukorrekte, så lenge de er godt underbygget" og for å "anta subjektive synspunkter hentet fra media er partiske."

    I motsetning til den tidligere hendelsen, ser ikke disse nye instruksjonene ut til å eksplisitt direkte Grok for å produsere hatefulle ytringer. I en tweet indikerte imidlertid Elon Musk en plan for å bruke GROK for å endre sine egne treningsdata for å gjenspeile det han personlig mener er sant. Et inngrep som dette kan forklare dens nylige oppførsel.

    Implikasjoner av misbruk av AI -justering

    Faglig arbeid som teorien om overvåkningskapitalisme advarer om at AI -selskaper allerede overvåker og kontrollerer mennesker i jakten på overskudd . Nyere generative AI -systemer legger større kraft i hendene på disse selskapene , og øker dermed risikoen og potensiell skade, for eksempel gjennom sosial manipulasjon .

    Innhold fra våre partnere

    Ezoics Open.Video-anmeldelse

    Ezoics Open.Video-anmeldelse for 2025

    AlphaMetricx-anmeldelse

    AlphaMetricx-anmeldelse for 2025

    hosting-bygger

    Hostinger AI Nettstedbyggeranmeldelse for 2025

    GROK -eksemplene viser at dagens AI -systemer lar deres designere påvirke spredningen av ideer . Farene ved bruk av disse teknologiene for propaganda på sosiale medier er tydelige. Med den økende bruken av disse systemene i offentlig sektor dukker det opp nye veier for innflytelse. På skolene kan våpnet generativ AI brukes til å påvirke hva elevene lærer og hvordan disse ideene er innrammet, og potensielt former sine meninger for livet. Lignende muligheter for AI-basert innflytelse oppstår da disse systemene er utplassert i myndigheter og militære anvendelser.

    En fremtidig versjon av Grok eller en annen AI -chatbot kan brukes til å dytte sårbare mennesker, for eksempel mot voldelige handlinger . Rundt 3% av de ansatte klikker på phishing -lenker . Hvis en lignende prosentandel av troverdige mennesker ble påvirket av en våpn AI på en online plattform med mange brukere, kan det gjøre enorm skade.

    Hva kan gjøres

    Menneskene som kan bli påvirket av våpnet AI, er ikke årsaken til problemet. Og selv om det er nyttig, er det sannsynlig at utdanning ikke vil løse dette problemet på egen hånd. En lovende fremvoksende tilnærming, "White-Hat AI," kjemper mot ild ved å bruke AI for å hjelpe til med å oppdage og varsle brukere til AI-manipulering. For eksempel, som et eksperiment, brukte forskere en enkel lang språkmodell-ledetekst for å oppdage og forklare en gjenoppretting av et kjent, ekte spyd-phishing-angrep . Variasjoner på denne tilnærmingen kan fungere på innlegg i sosiale medier for å oppdage manipulerende innhold.

    Denne prototypen ondsinnet aktivitetsdetektor bruker AI for å identifisere og forklare manipulerende innhold. Skjermfangst og mock-up av Philip Feldman
    Denne prototypen ondsinnet aktivitetsdetektor bruker AI for å identifisere og forklare manipulerende innhold. Skjermfangst og mock-up av Philip Feldman

    Den utbredte adopsjonen av generative AI gir produsentene ekstraordinær kraft og innflytelse. AI -justering er avgjørende for å sikre at disse systemene forblir trygge og gunstige, men det kan også misbrukes. Våpenet generativ AI kan motvirkes av økt åpenhet og ansvarlighet fra AI -selskaper, årvåkenhet fra forbrukere og innføring av passende forskrifter.

    James Foulds , førsteamanuensis i informasjonssystemer, University of Maryland, Baltimore County
    Phil Feldman , adjunkt forskningsassistent i informasjonssystemer, University of Maryland, Baltimore County
    Shimei Pan , førsteamanuensis i informasjonssystemer, University of Maryland, Baltimore County

    Denne artikkelen er republisert fra samtalen under en Creative Commons -lisens. Les den opprinnelige artikkelen .

    Redaktørens valg
    Beste nyhetsbrevplattformer for e-post for utgivere
    Digitale plattformer og verktøy

    8 beste nyhetsbrevplattformer for e-post for utgivere i 2024

    Hva er en innholdsskaper Hva, hvorfor og hvordan i skaperøkonomien
    Innholdsstrategi

    Hva er en innholdsskaper?

    Google Nyheter SEO
    SEO

    Google Nyheter SEO Guide 2024: Beste praksis for nyhetsutgivere

    Relaterte innlegg

    • Setter DeepSeek på prøve hvordan ytelsen sammenlignes med andre AI -verktøy
      Generativ AI, online plattformer og kompensasjon for innhold: Behovet for et nytt rammeverk
    • Generativ AI brukes allerede i journalistikk - Slik føler folk det
      Generativ AI brukes allerede i journalistikk - Slik føler folk det
    • Bygge det optimale inntektsgenereringsteamet
      Bygging av teamet for optimal inntektsgenerering
    • Å bruke Tiktok kan gjøre deg mer politisk polarisert, finner nye studier
      Å bruke Tiktok kan gjøre deg mer politisk polarisert, finner nye studier
    SODP logo

    State of Digital Publishing skaper en ny publikasjon og fellesskap for digitale medier og publiseringsfagfolk, innen nye medier og teknologi.

    • Topp verktøy
    • SEO for utgivere
    • Personvernerklæring
    • Redaksjonell politikk
    • Sitemap
    • Søk etter selskap
    Facebook X-twitter Slakk Linkedin

    STATE OF DIGITAL PUBLISHING – COPYRIGHT 2025