Snilld

Google åbner preview af Deep Research og Deep Research Max i Gemini API

Google har lanceret Deep Research og Deep Research Max i offentlig preview via betalte niveauer af Gemini API. Ifølge VentureBeat kan agenterne kombinere åbne webdata, proprietære virksomhedsdata og tredjepartskilder via MCP, og de kan også generere native grafer og infografikker i research-rapporter.

22. april 2026 Peter Munkholm

Google har lanceret to nye research-agenter, Deep Research og Deep Research Max. Begge er ifølge VentureBeat tilgængelige i offentlig preview via betalte niveauer af Gemini API, og adgangen går gennem Interactions API, som Google først introducerede i december 2025. Lanceringen er bygget på Googles Gemini 3.1 Pro-model.

Det centrale nye element er ifølge VentureBeat, at udviklere nu kan kombinere åbne webdata med proprietære virksomhedsdata gennem et enkelt API-kald. Samme kilde skriver også, at agenterne kan forbindes til tredjepartsdatakilder gennem Model Context Protocol, MCP. Det udvider forskellen mellem en almindelig websøgning og en research-agent, der kan arbejde på tværs af flere typer datakilder i samme forløb.

To niveauer med forskellig vægt

Google deler produktet i to lag. Deep Research er standardniveauet og erstatter preview-agenten, som Google udgav i december. Ifølge VentureBeat er standardversionen optimeret til lav latenstid og interaktive brugsscenarier.

Deep Research Max er positioneret anderledes. VentureBeat citerer Sundar Pichai for, at Deep Research er til hastighed og effektivitet, mens Max er til den højeste kvalitet i kontekstindsamling og syntese ved brug af udvidet test-time compute. Det er altså en eksplicit opdeling mellem et hurtigere og mere interaktivt lag og et lag, der prioriterer grundighed højere.

Den opdeling er en væsentlig del af lanceringen, fordi den viser, at Google ikke beskriver de to agenter som identiske varianter med forskellige navne. Kilden fremstiller dem som to forskellige svar på samme grundproblem: om research skal leveres hurtigt nok til løbende brug, eller om modellen skal bruge mere beregningstid for at samle og syntetisere kontekst.

En udvikler arbejder med et research-flow på tværs af flere datakilder.

Web, virksomhedsdata og tredjepart i samme flow

VentureBeat beskriver lanceringen som første gang, udviklere kan flette åbne webdata med proprietære virksomhedsdata gennem et enkelt API-kald. Det er en ret konkret produktpåstand, og den går igen som en af de vigtigste nyheder i artiklen. Samtidig tilføjer MCP-støtten et ekstra lag, fordi agenterne ifølge kilden kan forbindes til vilkårlige tredjepartsdatakilder.

Banner

Det betyder ikke i sig selv, at løsningen er dokumenteret i bred drift. Men det betyder, at Google nu beskriver research-agenten som noget, der ikke kun arbejder mod nettet eller mod én afgrænset datakilde. Ifølge den tilgængelige kilde er pointen netop samspillet mellem åbne kilder, interne kilder og eksterne datakilder gennem samme tekniske ramme.

Det er også her, lanceringen bliver mere interessant end en ren modelopdatering. Når produktbeskrivelsen samler webdata, virksomhedsdata og tredjepartskilder i samme agentforløb, handler nyheden ikke kun om bedre svar, men om en bredere type input til research-arbejdet. Hvor godt det fungerer i praksis, fremgår dog ikke af de tilgængelige kilder.

Google udvider også outputlaget

En anden verificeret detalje er, at agenterne ifølge VentureBeat kan generere native grafer og infografikker direkte i research-rapporter. Det er ikke en sidebemærkning i kilden, men en del af selve beskrivelsen af, hvad lanceringen tilføjer. Outputtet er altså ikke begrænset til ren tekst.

Det er værd at hæfte sig ved, fordi det ændrer karakteren af det, Google siger, agenterne kan levere. Hvis rapporten kan indeholde grafer og infografikker som en indbygget del af resultatet, rækker produktet ud over en traditionel tekstbaseret opsummering. Det er stadig ikke dokumentation for, hvordan kvaliteten af visualiseringerne er i praksis, men funktionen er direkte beskrevet i kilden.

De tilgængelige kilder siger derimod ikke meget om, hvor fleksible visualiseringerne er, eller hvordan de bruges videre i en arbejdsgang efter rapporten er genereret. Det må derfor stå som et åbent spørgsmål. Det sikre er kun, at native grafer og infografikker indgår i den lancerede funktionalitet.

Hvad kilderne faktisk dokumenterer

Faktakernen er forholdsvis klar. VentureBeat oplyser, at Google har lanceret Deep Research og Deep Research Max, at de er i offentlig preview via betalte niveauer af Gemini API, at adgangen sker gennem Interactions API, og at lanceringen er bygget på Gemini 3.1 Pro. Kilden oplyser også, at standardversionen erstatter preview-agenten fra december og er optimeret til lav latenstid og interaktiv brug.

Det er også dokumenteret, at Google skelner tydeligt mellem de to niveauer. Deep Research beskrives af Sundar Pichai som løsningen til hastighed og effektivitet, mens Max beskrives som løsningen til højeste kvalitet i kontekstindsamling og syntese ved brug af udvidet test-time compute. Den forskel er altså ikke en løs tolkning, men en del af Googles egen positionering, gengivet af VentureBeat.

Derudover er det dokumenteret, at agenterne kan kombinere åbne webdata og proprietære virksomhedsdata via et enkelt API-kald, at de kan forbindes til tredjepartsdatakilder gennem MCP, og at de kan generere native grafer og infografikker i research-rapporter. Det er de mest håndfaste dele af historien.

Banner
En it-arkitekt gennemgår forbindelser mellem webdata, interne data og eksterne systemer.

Det kilderne ikke viser endnu

Der er samtidig en grænse for, hvad materialet dokumenterer. De tilgængelige kilder viser ikke bred uafhængig dokumentation for brug i drift på tværs af virksomheder. De viser heller ikke i detaljer, hvordan forskellen i hastighed, kvalitet eller praktiske begrænsninger ser ud i konkrete produktioner.

Det fremgår også ikke af de medsendte kilder, hvordan sikkerhedsopsætning, adgangskontrol og datalagring fungerer i praksis, når private kilder kobles på. Det gør ikke produktpåstandene forkerte, men det betyder, at sådanne spørgsmål ikke kan besvares sikkert på baggrund af materialet her. I en revisionsrunde som den her er det vigtigt at holde den grænse skarp.

På samme måde kan man ikke ud fra kilderne fastslå, at løsningen allerede passer ind i almindelige virksomhedsflows eller er bevist i drift. Man kan kun sige, at Google og VentureBeat beskriver funktioner, som er relevante for enterprise research-workflows. Det er en mindre bombastisk, men mere kildefast formulering.

Et team vurderer en AI-genereret research-rapport med grafer i et mødelokale.

AWS-kilden giver kun bred kontekst

Den medsendte AWS-kilde handler om lineage og sporbarhed i maskinlæringsarbejdsgange bredt. Den siger, at produktionsmiljøer uden klar sporbarhed får svært ved at svare på, hvilke data en model bygger på, og om resultater kan reproduceres senere. Det er en relevant bredere pointe om produktionssystemer, især i regulerede miljøer.

Men AWS-kilden er ikke dokumentation for Googles research-agenter specifikt. Den kan derfor kun bruges som kontekst for, hvorfor sporbarhed ofte bliver vigtig, når AI-systemer flytter tættere på produktion og beslutninger. Koblingen til Google skal holdes nøgtern, ellers bliver analogien stærkere end kildematerialet bærer.

Det mest præcise er derfor at sige, at AWS peger på et generelt problem om lineage og reproducerbarhed i ML-systemer. Om og hvordan den udfordring håndteres i Googles nye research-agenter, fremgår ikke af de tilgængelige kilder. Den sondring er vigtig.

Et tydeligere produktgreb fra Google

Selv med de forbehold er lanceringen ikke uden substans. VentureBeat beskriver den som Googles hidtil tydeligste bud på at positionere sin AI-infrastruktur til enterprise research-workflows. Den formulering ligger i kilden, og den er mere præcis end at kalde produktet et bevist gennembrud eller en færdig løsning til drift.

Det skyldes især kombinationen af flere verificerede elementer på én gang: to research-agenter med forskellig vægtning af hastighed og grundighed, samspil mellem åbne webdata og proprietære data via et enkelt API-kald, tilkobling af tredjepartskilder gennem MCP og mulighed for at generere grafer og infografikker direkte i rapporter. Hver for sig er funktionerne ikke uvæsentlige. Samlet gør de lanceringen mere markant end en mindre modeljustering.

Men resten må vente på bedre dokumentation. Det gælder blandt andet, hvordan agenterne performer i praksis, hvordan de bruges i faktiske organisationer, og hvor godt de håndterer de mere besværlige dele af arbejdet omkring datakilder, styring og opfølgning. Kilderne giver et klart billede af, hvad Google lancerer. De giver endnu ikke et fuldt billede af, hvordan det fungerer ude i virkeligheden.

Kilder

    Gør brugeroplevelsen bedre.
    Hvilket firma arbejder du for?