Hvert år på Google I/O præsenterer Google de nyeste produkter og teknologier, som det i øjeblikket arbejder på. I år var begivenheden domineret af den udvikling, der er opnået inden for kunstig intelligens.
Blandt dem er to sprogmodeller, der er baseret på Transformer, ligesom BERT og GPT-3: MUM og LaMDA. Transformer er en neural netværksarkitektur udviklet af Google Research og udgivet i 2017. Arkitekturen skaber en model, der kan trænes til at være opmærksom på, hvordan ord relaterer til hinanden, mens man læser sætninger og derefter forudsige, hvilke ord den tror, der kommer næste gang. Begge kan hjælpe med at ændre søgning i fremtiden.
Hvordan virker det?
LaMDA , som står for “Language Industri e-mail-liste Model for Dialogue Applications”, blev trænet til dialoger i modsætning til de fleste andre sprogmodeller. Under træningen lærte den flere nuancer, der adskiller åben samtale fra andre sprogformer. En af disse nuancer er f.eks. følsomhed. Disse samtaleevner kan være vigtige i forskellige Google-produkter i fremtiden. Der er dog ingen konkrete oplysninger om dette fra Google endnu.
MUM , der står for “Multitask Unified Model”, er som nævnt baseret på en Transformer-arkitektur. Ifølge Google er MUM 1.000 gange stærkere end BERT , som er baseret på samme og blev introduceret i 2019. MUM forstår ikke kun sprog, men genererer det også. Det er blevet trænet i 75 forskellige sprog og mange forskellige opgaver samtidigt, hvilket giver det mulighed for at udvikle en mere omfattende forståelse af information og verdensviden end tidligere modeller.
Målet er at gøre søgningen væsentlig lettere ved at bruge MUM
Især komplekse søgekrav aero leads betyder, at brugerne skal søge efter forskellige informationer om et generelt emne. I fremtiden burde der kræves færre søgninger for at finde en løsning.
MUM er multimodal, hvilket betyder, at den forstår information på tværs af tekst og billeder. Derudover udgør andre sprog ofte en væsentlig barriere for adgang til information. MUM har potentialet til at overvinde disse barrierer ved at overføre viden på tværs af sprog. Den lærer fra kilder, der ikke er skrevet på det sprog, som søgeforespørgslen blev lavet på, og giver en løsning.
Teknologien kan blive udvidet til at omfatte andre modaliteter såsom video og lyd i fremtiden. Google har allerede annonceret, at de vil introducere MUM-baserede funktioner og forbedringer til produkter i de kommende måneder og år. Applikationen skal dog stadig testes tilstrækkeligt, før den kan introduceres.
Vil du vide mere?
Indtil videre har Google Dum ranktracker ofertas ampleksan backlink analizon naturligvis ikke givet nogen konkret information om, hvilken rolle teknologierne kommer til at spille i fremtidige søgninger. Men der er helt sikkert potentiale for anvendelse i forskellige Google-produkter. Du kan finde officiel information om LaMDA og MUM på Google-bloggen.
Den levende information om butikker og restauranter vil blive udvidet. Denne udvidelse vil gøre det muligt at se den aktuelle popularitet af visse bydele og gader med et øjeblik.
For at gøre kortet let at forstå på trods af den store mængde information sætter Google kontekst i spil. Hvis du for eksempel kigger på kortet om morgenen, vil du se caféer, men ikke de restauranter, der åbner senere.