Claude Code + Apify, tilgjengelig datainnhenting fra hele nettet

3/3/2026
7 min read

Claude Code + Apify, tilgjengelig datainnhenting fra hele nettet

Claude Code + ApifyHei alle sammen, jeg er Lu Gong.

Når dere bruker Claude Code, spesielt i Plan-modus, har dere ofte behov for å bruke WebSearch-verktøyet for å hente inn nettsidedata. Men dere støter ofte på Fetch-feil.

Dette er faktisk et gammelt problem. Med Claude Codes innebygde WebFetch og WebSearch-verktøy, er det tilstrekkelig for 80% av scenariene når man søker etter informasjon eller gjør undersøkelser, men når man møter JS-renderte sider, nettsteder som krever innlogging, eller behov for storskala datainnsamling, klarer ikke de innebygde verktøyene å håndtere det.

For et par dager siden så jeg Santiago (@svpino, en kjent blogger innen AI/ML) dele en løsning. Han sa at man kan bruke Claude Code til å hente sanntids strukturerte data fra enhver nettside, og det som returneres er tabeller som kan brukes direkte, ikke bare lange tekstutdrag. Jeg prøvde det, og det fungerte veldig bra.

I dag skal vi snakke om hvordan man kan gi Claude Code evnen til å samle inn data fra hele nettet, to veier å velge mellom etter behov.

Claude Codes innebygde nettverktøy sine begrensninger

Claude Code har to innebygde nettverktøy: WebSearch som ansvarer for søk, og WebFetch som henter inn innhold fra sider.

WebSearch er ganske enkelt; du gir det et søkeord, og det returnerer relevante lenker og titler. WebFetch er litt mer komplisert; du gir det en URL og et spørsmål, og det henter inn innholdet fra siden, konverterer HTML til Markdown ved hjelp av Turndown-biblioteket, kutter det ned til 100KB, og bruker en lettvektsmodell (Haiku) for å oppsummere.

Med andre ord, disse to verktøyene fungerer som en enkel nettleser. De kan brukes, men har flere alvorlige svakheter.

Det største problemet er at de ikke kan rendre JS. Nå for tiden er mange nettsteder SPA (enkelsideapplikasjoner), og innholdet lastes dynamisk med JS. X/Twitter, mange e-handelsplattformer, og diverse SaaS-bakgrunner kan WebFetch ikke hente faktisk innhold fra, det får bare tak i en tom skall.

Evnen til å unngå bot-detektering er også praktisk talt null. Det støtter ikke proxy-rotasjon, kan ikke håndtere CAPTCHA-verifikasjoner, og når det møter nettsteder med bot-detekteringsmekanismer, må det gi opp.

En annen smerte er at det bare returnerer tekstutdrag. Hvis du ønsker å få tak i strukturerte data (for eksempel produktpriser, brukerkommentarer, eller sammenligning av funksjoner mellom konkurrenter), kan WebFetch ikke gjøre det; det gir deg alltid en komprimert tekst.

Disse tre svakhetene kombinert gjør at Claude Code alltid mangler brukervennlighet når det gjelder datainnsamling. Men nå finnes det en løsning.

Metode 1: Apify Agent Skills

Apify er en velkjent skybasert nettleserplattform som har drevet med nettsideinnhenting og automatisering i mange år. Nylig har de lansert en serie med Agent Skills, som enkelt sagt er en gruppe forhåndsdefinerte ferdighetspakker som lærer AI Coding Agent hvordan man samler inn data.

GitHub-repositoriet: https://github.com/apify/agent-skills

Disse ferdighetene støtter Claude Code, Cursor, Codex, Gemini CLI og andre populære AI-programmeringsverktøy. Det er for øyeblikket 12 ferdigheter tilgjengelig, som dekker et bredt spekter.

Den sentrale apify-ultimate-scraper er en allsidig nettleserferdighet som kan hente data fra plattformer som Instagram, Facebook, TikTok, YouTube, Google Maps, Google Search, osv. Nøkkelen er at den returnerer strukturerte data som kan eksporteres direkte til CSV eller JSON, klar til bruk.

Andre ferdigheter dekker scenarier som konkurrentanalyse, overvåking av merkevareomdømme, innsamling av e-handelsdata, KOL-funn, potensielle kundeinnhentinger, trendanalyse, osv. Hvis du driver med markedsundersøkelser eller forretningsdataanalyse, er denne pakken rett og slett fantastisk.

Å installere disse ferdighetene i Claude Code er også veldig enkelt. Forutsetningen er at du trenger en Apify-konto (registrer deg på apify.com, det er gratis kvoter), og når du har fått API-tokenet, kan du begynne å konfigurere.

Installasjonen skjer i to trinn. Først legger du til markedskilder:/plugin marketplace add https://github.com/apify/agent-skills installere ferdighetene du trenger, som universell nettleser:

/plugin install apify-ultimate-scraper@apify-agent-skills kan også bruke den generelle npx-metoden for å installere alle ferdigheter på en gang:

npx skills add apify/agent-skills Etter installasjonen, ikke glem å konfigurere din API Token i .env-filen i prosjektets rotmappe:

APIFYTOKEN=din token

For eksempel hente Youtube videodata

Her er et nøkkelpunk. Santiago understreker gjentatte ganger i tweetene at den viktigste fordelen med denne løsningen er at den returnerer strukturerte data. For eksempel, hvis du ber Claude Code om å hente produktlisten fra en e-handelsplattform, får du et organisert regneark (produktnavn, pris, vurdering, lenke), som kan brukes direkte til analyse, mye mer nyttig enn tekstoppsummeringen som WebFetch returnerer.

Apifys betalingsmodell er basert på resultater, det vil si at du kun betaler når dataene er hentet med suksess. Men for personlige brukere er gratis kvoten tilstrekkelig til å gjøre mye.

Metode to: Apify MCP Server

Hvis du ønsker mer fleksibel kontroll, eller hvis ferdighetene ikke dekker scenariet ditt, er det en annen vei: direkte tilgang til Apify-plattformen via MCP (Model Context Protocol).

Gjennom Apify MCP Server kan Claude Code direkte kalle tusenvis av ferdige nettlesere og automatiseringsverktøy i Apify Store.

GitHub-repositoriets adresse: https://github.com/apify/apify-mcp-server

MCP-løsningens konfigurasjon er heller ikke komplisert. Anbefalt å bruke en administrert fjernserver, konfigurasjonen er enklest. Legg til i MCP-konfigurasjonsfilen din:

{ "mcpServers": { "apify": { "url": "https://mcp.apify.com", "headers": { "Authorization": "Bearer din APIFYTOKEN" } } } } Hvis du foretrekker å kjøre lokalt, kan du bruke Stdio-metoden:

{ "mcpServers": { "apify-mcp": { "command": "npx", "args": ["-y", "@apify/actors-mcp-server"], "env": { "APIFYTOKEN": "din APIFYTOKEN" } } } } Når dette er konfigurert, kan Claude Code begynne å bruke verktøy som search-actors (søke etter tilgjengelige nettlesere), call-actor (utføre nettleseroppgaver), get-dataset-items (hente innhentede resultater) osv.

Både Skills og MCP-metoden kan installeres, de kan supplere hverandre.

Hvis behovet ditt er hyppig og scenariet er fast (for eksempel hente konkurrentpriser en gang om dagen), er det mer bekymringsfritt å bruke Skills, med forhåndsdefinerte arbeidsflyter som er klare til bruk.

Hvis behovet ditt er midlertidig og scenariet variabelt (i dag henter sosiale medier, i morgen henter offentlige data fra regjeringen), er MCP mer fleksibelt, Apify Store har over 15000 aktører som kan kalles når som helst.

For begge metoder er forutsetningene de samme: du trenger en Apify-konto og API Token, samt Node.js 20.6+ miljø.

Vær oppmerksom på et tidspunkt: Apify MCP Servers SSE-overføringsmetode vil bli avviklet 1. april 2026, og da må den oppdateres til Streamable HTTP-metoden. Hvis du begynner å konfigurere nå, kan du bruke den anbefalte konfigurasjonen ovenfor, som allerede er den nye metoden.

Andre løsninger verdt å merke segBrave Search MCP er den offisielle anbefalingen fra Anthropic for søkealternativer, med 2000 gratis forespørseler per måned, egnet for daglig søkefyll, men det er bare en søkemotor og kan ikke brukes til strukturert datainnsamling.

Playwright MCP kan utføre ekte nettleserrendering og håndtere JavaScript-dynamiske sider, egnet for de nettsteder med tung JS som WebFetch ikke klarer. Men det er mer rettet mot automatiserte operasjoner, og er ikke like praktisk som Apify for storskala datainnsamling.

Bright Data MCP tar en bedriftsvennlig tilnærming, støtter proxy-rotasjon og CAPTCHA-håndtering, og i 2026 lanserte de et gratis nivå (5000 MCP-forespørseler per måned), egnet for scenarier som trenger å bryte gjennom anti-scraping mekanismer.

Denne kombinasjonen har sine egne styrker og kan kombineres etter behov. Min nåværende kombinasjon er innebygd WebFetch/WebSearch for daglig informasjonsinnhenting, og Apify Skills for strukturert datainnsamling.

Claude Codes nettverkskapasitet, med innebygde verktøy som dekker 80% av daglige scenarier, men de resterende 20% (JS-rendering, anti-scraping, strukturert data) er nettopp de som mange faktiske arbeidsoppgaver ikke kan unngå. Apifys Agent Skills og MCP Server fyller dette gapet, og konfigurasjonsprosessen er ikke komplisert, jeg anbefaler sterkt studenter med datainnsamlingsbehov å prøve det.

Published in Technology

You Might Also Like