Google Gemini er en seri?s trussel mot ChatGPT – her er hvorfor

Hvorfor oss?
VIKTIGE KONKLUSJONER

Introduksjonen av Google Gemini, et sett med store spr?kmodeller, engelsk Large Language Models (LLM), med AlphaGo-inspirerte teknikker, er Googles strategiske svar p? ChatGPT. Med multimodale funksjoner og potensiell tilgang til Googles omfattende propriet?re oppl?ringsdata fra ulike tjenester, tar Gemini sikte p? ? utfordre ChatGPTs dominans innen generativ kunnstig intelligens. Dette understreker Googles satsing p? KI-innovasjon og konkurranse i det raskt voksende markedet for generativ KI, som ansl?s ? v?re verdt 1,3 billioner dollar innen 2032.

Lanseringen av ChatGPT i november 2023 traff Google markant. Den popul?re chatboten utgjorde en s? stor trussel mot selskapets virksomhet at de m?tte erkl?re kode r?d og begynne ? investere i ? ta igjen forspranget innen generativ KI.

Denne satsingen har ikke bare resultert i lanseringen av Google Bard, men ogs? Google Gemini.

Gemini ble lansert onsdag 6. desember 2023, og etter hvert som m?nedene g?r, vil vi f?lge deres reise – det er en stor sjanse for at Google kan overta den popul?re KI-kronen fra ChatGPT.

Hva er Google Gemini?

Gemini er et sett med store spr?kmodeller (LLM) som utnytter treningsteknikker hentet fra AlphaGo, inkludert forsterkningsl?ring (reinforcement learning”) og “tree search”, og har potensialet til ? vippe ChatGPT av pinnen som den dominerende generative KI-l?sningen.
Dette skjer noen m?neder etter at Google slo sammen sine Brain- og DeepMind KI-laboratorier til et nytt forskningsteam kalt Google DeepMind, og etter lanseringen av Bard og neste generasjons PaLM 2 LLM.

Med forventninger om at det generative KI-markedet vil v?re verdt 1,3 billioner USD innen 2032, er det tydelig at Google g?r all-in p? ? investere i omr?det for ? opprettholde sin posisjon som ledende innen KI-utvikling.

Hva vi vet om Gemini s? langt

I mai publiserte Sundar Pichai, administrerende direkt?r i Google og Alphabet, et blogginnlegg med en oversikt over LLM og forklarte:

“Gemini ble skapt fra grunnen av for ? v?re multimodal, sv?rt effektiv n?r det gjelder verkt?y- og API-integrasjoner og bygget for ? muliggj?re fremtidige innovasjoner, som minne og planlegging.”

Pichai bemerket ogs? at “selv om det fortsatt er tidlig i prosessen, ser vi allerede imponerende multimodale funksjoner som vi ikke har sett i tidligere modeller”.

“N?r Gemini er finjustert og grundig sikkerhetstestet, vil den v?re tilgjengelig i ulike st?rrelser og med ulike funksjoner, akkurat som PaLM 2.”

I et intervju med Wired sier Demis Hassabis, administrerende direkt?r i Google DeepMind, at Gemini vil “kombinere noen av styrkene til systemer av typen AlphaGo med de fantastiske spr?kegenskapene til de store modellene.”

Android Police har ogs? hevdet at en anonym kilde som er involvert i produktet, har kommentert at Gemini vil kunne generere tekst og kontekstuelle bilder og vil bli trent p? kilder som YouTube-videotranskripsjoner.

Vil Gemini ta kronen fra ChatGPT?

En av de st?rste diskusjonene rundt lanseringen av Gemini er om spr?kmodellen har det som skal til for ? sl? ChatGPT, som i ?r n?dde over 100 millioner aktive brukere hver m?ned.

Til ? begynne med brukte Google Geminis evnen til ? generere tekst og bilder for ? skille den fra GPT4, men 25. september 2023 kunngjorde OpenAI at brukerne kunne legge inn tale- og bildesp?rsm?l i ChatGPT.

N? som OpenAI eksperimenterer med en multimodal modelltiln?rming og har koblet ChatGPT til Internett, er Googles enorme utvalg av propriet?re treningsdata kanskje det som skiller de to mest fra hverandre. Google Gemini kan behandle data fra flere tjenester, blant annet Google Search, YouTube, Google Books og Google Scholar.

Bruken av disse propriet?re dataene i treningen av Gemini-modellene kan resultere i et klart forsprang n?r det gjelder sofistikert innsikt og konklusjoner fra et datasett. Dette gjelder spesielt hvis de f?rste rapportene om at Gemini er trent p? dobbelt s? mange tokens som GPT4 er korrekte.

I tillegg kan ikke samarbeidet mellom Google DeepMind og Brain-teamene i ?r undervurderes, ettersom det setter OpenAI opp mot et team av KI-forskere i verdensklasse, inkludert Googles medgrunnlegger Sergey Brin og DeepMinds senior KI-forsker og maskinl?ringsekspert Paul Barham.

Dette er et erfarent team som har en dyp forst?else av hvordan man bruker teknikker som forsterkningsl?ring og tree-search for ? skape KI-programmer som kan samle tilbakemeldinger og forbedre probleml?sningen over tid, noe DeepMind-teamet brukte til ? l?re AlphaGo ? sl? en verdensmester i Go i 2016.

Kappl?pet innen kunstig intelligens

Geminis kombinasjon av multimodale evner, bruk av forsterkningsl?ring, tekst- og bildegenerering og Googles egne data er alle ingrediensene Gemini trenger for ? utkonkurrere GPT-4.

Treningsdataene er den viktigste forskjellen, for n?r alt kommer til alt, vil organisasjonen som vinner LLM-kappl?pet i stor grad bli avgjort basert p? hvem som trener modellene sine p? det st?rste og rikeste datasettet.

N?r det er sagt, kan vi ikke avskrive den generative KI-giganten enn?, ettersom OpenAI angivelig jobber med en ny neste generasjons multimodal LLM kalt Gobi. Sp?rsm?let er n? hvem som er best p? multimodal kunstig intelligens.

Related Articles

Tim Keary
Technology Specialist
Tim Keary
Teknologispesialist

Siden januar 2017 har Tim Keary v?rt en frilans teknologiskribent og reporter, som dekker bedriftsteknologi og informasjonssikkerhet.

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/