Utgiverveksttaktikker for valgsesongen | WEBINAR

Lær mer

SODP

SODP Media

  • Insights
    • Articles
      • Audience Development
      • Content Strategy
      • Digital Publishing
      • Monetization
      • SEO
      • Digital Platforms & Tools
    • Top Tools & Reviews
    • Opinion
    • Podcast
  • Education
    • Publisher SEO Course
    • Events
      • Monetization Week 2025
  • Resources
  • Community
    • Slack Channel
    • Newsletter
  • About
    • About Us
    • Contact Us
    • Editorial Policy
  • English
sodp logo
SODP logo
    Søk
    Lukk denne søkeboksen.
    Logg inn
    • Innsikt
      • Podcast
      • Artikler
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Inntektsgenerering
        • SEO
        • Digitale plattformer og verktøy
      • Toppverktøy og anmeldelser
        • Artikler
        • Toppverktøy og anmeldelser
        • Mening
        • Podcaster
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Inntektsgenerering
        • SEO
        • Digitale plattformer og verktøy
        • Hodeløse CMS-plattformer
        • Digitale publiseringsplattformer
        • Programvare for redaksjonell kalender
        • Magasinapper
        • E-post nyhetsbrevplattformer
        • Flere lister over beste verktøy
    • Utdannelse
      • Utgiver SEO-kurs
        • Utgiver SEO-kurs
        • Hendelser
        • Tonetization Week 2025
        • Se alle
    • Ressurser
    • Fellesskap
      • Slack Channel
      • Kontortid
      • Nyhetsbrev
        • Slack Channel
        • Nyhetsbrev
    • Om
      • Om oss
      • Kontakt oss
      • Redaksjonell politikk
        • Om oss
        • Kontakt oss
        • Redaksjonell politikk
    plassholder
    SODP logo
    Bli en merkevarepartner

    Hjem ▸ Digitale plattformer og verktøy ▸ DeepSeek: Hvordan et lite kinesisk AI -selskap rister opp oss teknologiske tungvektere

    DeepSeek: Hvordan et lite kinesisk AI -selskap rister opp oss teknologiske tungvektere

    Tongliang LiuTongliang Liu
    28. januar 2025
    Fakta sjekket av The Conversation
    Samtalen
    Samtalen

    The Conversation er et unikt samarbeid mellom akademikere og journalister som på et tiår har blitt verdens ledende utgiver av forskningsbaserte nyheter og analyser. Alt du leser på disse sidene er … Les mer

    Redigert av Tongliang Liu
    Tongliang Liu
    Tongliang Liu

    Tongliang Liu er førsteamanuensis i maskinlæring ved School of Computer Science og direktøren for Sydney AI Center ved University of Sydney. Han er bredt interessert i feltene pålitelig ... Les mer

    DeepSeek hvordan et lite kinesisk AI -selskap rister opp oss teknologiske tungvektere

    Chinese Artificial Intelligence (AI) Company DeepSeek har sendt sjokkbølger gjennom teknologisamfunnet , med utgivelsen av ekstremt effektive AI-modeller som kan konkurrere med banebrytende produkter fra amerikanske selskaper som Openai og Anthropic.

    DeepSeek ble grunnlagt i 2023 og har oppnådd sine resultater med en brøkdel av kontantene og datakraften til konkurrentene.

    DeepSeek "resonnement" R1 -modell, som ble utgitt i forrige uke, provoserte spenning blant forskere, sjokk blant investorer og svar fra AI -tungvektere. Selskapet fulgte opp 28. januar med en modell som kan fungere med bilder samt tekst.

    DeepSeek's R1 er en imponerende modell, spesielt rundt det de er i stand til å levere for prisen.

    Vi vil åpenbart levere mye bedre modeller, og det er også legitimt oppkvikkende å ha en ny konkurrent! Vi vil trekke opp noen utgivelser.

    - Sam Altman (@sama) 28. januar 2025

    Så hva har DeepSeek gjort, og hvordan gjorde det det?

    Hva DeepSeek gjorde

    I desember ga DeepSeek ut sin V3 -modell . Dette er en veldig kraftig "standard" stor språkmodell som presterer på et lignende nivå som Openais GPT-4O og Anthropics Claude 3.5.

    Selv om disse modellene er utsatt for feil og noen ganger utgjør sine egne fakta , kan de utføre oppgaver som å svare på spørsmål, skrive essays og generere datakode. På noen tester av problemløsing og matematisk resonnement, scorer de bedre enn det gjennomsnittlige mennesket.

    V3 ble trent til en rapportert kostnad på rundt 5,58 millioner dollar. Dette er dramatisk billigere enn GPT-4, for eksempel, som koster mer enn 100 millioner dollar å utvikle.

    DeepSeek hevder også å ha trent V3 ved å bruke rundt 2000 spesialiserte datamaskinbrikker, spesielt H800 GPUer laget av Nvidia . Dette er igjen mye færre enn andre selskaper, som kan ha brukt opptil 16 000 av de kraftigere H100 -brikkene.

    20. januar ga DeepSeek ut en annen modell, kalt R1 . Dette er en såkalt "resonnement" -modell, som prøver å jobbe gjennom komplekse problemer trinn for trinn. Disse modellene ser ut til å være bedre på mange oppgaver som krever kontekst og har flere sammenhengende deler, for eksempel leseforståelse og strategisk planlegging.

    R1 -modellen er en finjustert versjon av V3, modifisert med en teknikk som heter forsterkningslæring. R1 ser ut til å fungere på et lignende nivå som Openais O1 , utgitt i fjor.

    DeepSeek brukte også den samme teknikken for å lage "resonnement" -versjoner av små open source-modeller som kan kjøre på hjemmedatamaskiner.

    Denne utgivelsen har vekket en enorm bølge av interesse for DeepSeek, og økt populariteten til sin V3-drevne chatbot-app og utløste et massivt prisulykke i teknologiske aksjer når investorene vurderer AI-bransjen på nytt. I skrivende stund har Chipmaker Nvidia mistet rundt 600 milliarder dollar i verdi.

    Hvor DeepSeek gjorde det

    DeepSeek gjennombrudd har vært å oppnå større effektivitet: å få gode resultater med færre ressurser. Spesielt har DeepSeeks utviklere banebrytende to teknikker som kan bli adoptert av AI -forskere bredere.

    Den første har å gjøre med en matematisk idé kalt “sparsity”. AI -modeller har mange parametere som bestemmer deres svar på innganger (V3 har rundt 671 milliarder), men bare en liten brøkdel av disse parametrene brukes til en gitt inngang.

    Å forutsi hvilke parametere som vil være nødvendig, er imidlertid ikke lett. DeepSeek brukte en ny teknikk for å gjøre dette, og trente deretter bare parametrene. Som et resultat trengte modellene langt mindre trening enn en konvensjonell tilnærming.

    Det andre trikset har å gjøre med hvordan V3 lagrer informasjon i datamaskinminnet. DeepSeek har funnet en smart måte å komprimere relevante data på, så det er lettere å lagre og få tilgang til raskt.

    DeepSeek har rystet AI-industrien med flere milliarder dollar. Robert Way/Shutterstock
    DeepSeek har rystet AI-industrien med flere milliarder dollar. Robert Way/Shutterstock

    Hva det betyr

    DeepSeeks modeller og teknikker er utgitt under gratis MIT -lisensen , noe som betyr at hvem som helst kan laste ned og endre dem.

    Innhold fra våre partnere

    AI, det dobbeltkantede sverd av kreativitet, og hvorfor utgivere må omfavne det

    AI, det dobbeltkantede sverd av kreativitet, og hvorfor utgivere må omfavne det

    Hvorfor online utgivere trenger en VPN: å beskytte data, kilder og inntekter

    Hvorfor online utgivere trenger en VPN: å beskytte data, kilder og inntekter

    Publikumsledelsens Goldilocks -problem (2)

    Publikumsledelsens Goldilocks -problem: Hvordan utgivere blir fanget mellom teknologi som ikke fungerer, eller er for komplisert til å bruke

    Selv om dette kan være dårlige nyheter for noen AI -selskaper - hvis overskudd kan erodert av eksistensen av fritt tilgjengelige, kraftige modeller - er det gode nyheter for det bredere AI -forskningssamfunnet.

    For tiden krever mye AI -forskning tilgang til enorme mengder databehandlingsressurser. Forskere som meg selv som er basert på universiteter (eller hvor som helst unntatt store teknologiselskaper) har hatt begrenset evne til å utføre tester og eksperimenter.

    Mer effektive modeller og teknikker endrer situasjonen. Eksperimentering og utvikling kan nå være betydelig enklere for oss.

    For forbrukere kan tilgang til AI også bli billigere. Flere AI -modeller kan kjøres på brukernes egne enheter, for eksempel bærbare datamaskiner eller telefoner, i stedet for å kjøre "i skyen" for et abonnementsavgift.

    For forskere som allerede har mye ressurser, kan mer effektivitet ha mindre effekt. Det er uklart om DeepSeeks tilnærming vil bidra til å gjøre modeller med bedre ytelse generelt, eller bare modeller som er mer effektive.

    Tongliang Liu, førsteamanuensis i maskinlæring og direktør for Sydney AI Center, University of Sydney

    Denne artikkelen er utgitt fra samtalen under en Creative Commons -lisens. Les den opprinnelige artikkelen .

    Redaktørens valg
    Hva er en innholdsskaper Hva, hvorfor og hvordan i skaperøkonomien
    Innholdsstrategi

    Hva er en innholdsskaper?

    Beste nyhetsbrevplattformer for e-post for utgivere
    Digitale plattformer og verktøy

    8 beste nyhetsbrevplattformer for e-post for utgivere i 2024

    Google Nyheter SEO
    SEO

    Google Nyheter SEO Guide 2024: Beste praksis for nyhetsutgivere

    Relaterte innlegg

    • DeepSeek
      Sette DeepSeek på prøve: Hvordan ytelsen sammenlignes med andre AI -verktøy
    • Clara Soteras Q&A: SEO Opportunities & Battles for Digital Publishers
      Clara Soteras Q&A: SEO Opportunities & Battles for Digital Publishers
    • Beste AI-skriveverktøy
      10 beste AI-skriveverktøy
    • Jan Thoresen
      Labrador CMS Q&A: Moving Beyond a Headless CMS for Greater Publisherfleksibilitet og -hastighet
    SODP logo

    State of Digital Publishing skaper en ny publikasjon og fellesskap for digitale medier og publiseringsfagfolk, innen nye medier og teknologi.

    • Topp verktøy
    • SEO for utgivere
    • Personvernerklæring
    • Redaksjonell politikk
    • Sitemap
    • Søk etter selskap
    Facebook X-twitter Slakk Linkedin

    STATE OF DIGITAL PUBLISHING – COPYRIGHT 2025

    2. Årlig

    Inntektsuke

    Konvergensen av innovasjon og strategi: Publisher -inntektsgenerering i 2025.

    Et 5-dagers online arrangement som utforsker fremtiden for utgiverinntektsmodeller.

    19. - 23. mai 2025

    Online arrangement

    Lær mer