Claude Code + Apify, అంగీకార రహితంగా మొత్తం నెట్ డేటాను సేకరించడం
Claude Code + Apify, అంగీకార రహితంగా మొత్తం నెట్ డేటాను సేకరించడం
అందరికీ నమస్కారం, నేను లూ గాంగ్.
మీరు Claude Code ఉపయోగిస్తున్నప్పుడు, ప్రత్యేకంగా Plan mode లో, వెబ్ డేటాను సేకరించడానికి WebSearch సాధనాన్ని ఉపయోగించాలనే అవసరం తరచుగా ఉంటుంది. కానీ తరచూ Fetch error పరిస్థితిని ఎదుర్కొంటారు.
ఇది వాస్తవానికి ఒక పాత సమస్య. Claude Code లోని WebFetch మరియు WebSearch సాధనాలను ఉపయోగించి, సమాచారం కోసం పరిశోధన చేయడం, 80% సందర్భాలలో సరిపోతుంది, కానీ JS రాండరింగ్ పేజీలు, లాగిన్ అవసరమైన వెబ్సైట్లు లేదా పెద్ద మొత్తంలో డేటా సేకరణ అవసరమైనప్పుడు, అంతర్గత సాధనాలు సహాయపడవు.
మునుపటి రెండు రోజులు, Santiago (@svpino, AI/ML రంగంలో ప్రసిద్ధ బ్లాగర్) ఒక పద్ధతిని పంచుకున్నారు, ఆయన Claude Code ను ఉపయోగించి ఏ వెబ్సైట్ నుండి అయినా ప్రత్యక్ష నిర్మాణాత్మక డేటాను పొందవచ్చని చెప్పారు, ఇది నేరుగా ఉపయోగించగల పట్టికగా తిరిగి వస్తుంది, అది పెద్ద మొత్తంలో వచన సారాంశం కాదు. నేను ఒకసారి ప్రయత్నించాను, నిజంగా చాలా ఉపయోగకరంగా ఉంది.
ఈ రోజు Claude Code కు మొత్తం నెట్ డేటా సేకరణ సామర్థ్యాన్ని ఎలా ఇన్స్టాల్ చేయాలో చర్చిద్దాం, రెండు మార్గాలు, అవసరానికి అనుగుణంగా ఎంపిక చేసుకోండి.
Claude Code లోని అంతర్గత నెట్వర్క్ సాధనాల లోపాలు
Claude Code కు రెండు అంతర్గత నెట్వర్క్ సాధనాలు ఉన్నాయి: WebSearch శోధనకు, WebFetch పేజీ కంటెంట్ను సేకరించడానికి బాధ్యత వహిస్తుంది.
WebSearch చాలా సరళమైనది, మీరు దానికి ఒక శోధన పదం ఇస్తే, ఇది సంబంధిత లింకులు మరియు శీర్షికలను తిరిగి ఇస్తుంది. WebFetch కొంచెం క్లిష్టమైనది, మీరు దానికి ఒక URL మరియు ఒక ప్రశ్న ఇస్తే, ఇది పేజీ కంటెంట్ను సేకరిస్తుంది, Turndown లైబ్రరీ ద్వారా HTML ను Markdown గా మార్చుతుంది, 100KB లోపు కట్ చేస్తుంది, మరియు ఒక తేలికపాటి మోడల్ (Haiku) ద్వారా మీకు సారాంశం అందిస్తుంది.
సరళంగా చెప్పాలంటే, ఈ రెండు సాధనాలు ఒక సులభమైన బ్రౌజర్ యొక్క రూపం. ఉపయోగించవచ్చు, కానీ కొన్ని తీవ్రమైన లోపాలు ఉన్నాయి.
అత్యంత పెద్ద సమస్య JS ను రాండర్ చేయలేకపోవడం. ప్రస్తుతం చాలా వెబ్సైట్లు SPA (ఒకే పేజీ అప్లికేషన్) గా ఉన్నాయి, కంటెంట్ JS ద్వారా డైనమిక్గా లోడ్ అవుతుంది. X/Twitter, అనేక ఈ-కామర్స్ ప్లాట్ఫారమ్లు, వివిధ SaaS బ్యాక్ఎండ్లు, WebFetch వాస్తవ కంటెంట్ను సేకరించలేకపోతుంది, కేవలం ఒక ఖాళీ కవచాన్ని మాత్రమే పొందుతుంది.
రెండు పాయింట్ల సామర్థ్యం కూడా బేసిక్గా సున్నా. ప్రాక్సీ రౌటింగ్ను మద్దతు ఇవ్వదు, CAPTCHA వాస్తవీకరణను నిర్వహించలేరు, ప్రతికూల పాయింట్ యంత్రం ఉన్న వెబ్సైట్ను ఎదుర్కొంటే, కేవలం విరామం చేయాలి.
మరొక బాధాకరమైన విషయం, ఇది కేవలం వచన సారాంశాన్ని మాత్రమే తిరిగి ఇస్తుంది. మీరు నిర్మాణాత్మక డేటాను (ఉదాహరణకు ఉత్పత్తి ధర పట్టిక, వినియోగదారు సమీక్షల జాబితా, పోటీ ఉత్పత్తుల ఫీచర్ పోలిక) పొందాలనుకుంటే, WebFetch చేయలేరు, ఇది మీకు ఎప్పుడూ ఒక సంకోచిత వచనం మాత్రమే ఇస్తుంది.
ఈ మూడు లోపాలు కలిపి, Claude Code డేటా సేకరణలో ఎప్పుడూ ఉపయోగించడానికి సులభతను అందించలేదు. కానీ ఇప్పుడు ఒక పరిష్కారం ఉంది.
పద్ధతి 1: Apify ఏజెంట్ నైపుణ్యాలు
Apify ఒక పాత క్లౌడ్ క్రాలర్ ప్లాట్ఫారమ్, ఇది వెబ్ పేజీ సేకరణ మరియు ఆటోమేషన్ను చాలా సంవత్సరాలుగా చేస్తోంది. ఇటీవల వారు ఒక ఏజెంట్ నైపుణ్యాల సమితిని విడుదల చేశారు, సులభంగా చెప్పాలంటే, ఇది AI కోడింగ్ ఏజెంట్కు డేటా సేకరణ ఎలా చేయాలో నేర్పించడానికి ప్రత్యేకంగా రూపొందించిన ప్రీ-ఫ్యాబ్రికేటెడ్ నైపుణ్యాల సమితి.
GitHub గిడ్డంగి చిరునామా: https://github.com/apify/agent-skills
ఈ నైపుణ్యాలు Claude Code, Cursor, Codex, Gemini CLI వంటి ప్రధాన AI ప్రోగ్రామింగ్ సాధనాలను మద్దతు ఇస్తాయి. ప్రస్తుతం మొత్తం 12 నైపుణ్యాలు ఉన్నాయి, విస్తృతంగా కవర్ చేస్తాయి.
కేంద్రంగా ఉన్న apify-ultimate-scraper అనేది ఒక యూనివర్సల్ క్రాలర్ నైపుణ్యం, ఇది Instagram, Facebook, TikTok, YouTube, Google Maps, Google Search వంటి ప్లాట్ఫారమ్ల డేటాను సేకరించగలదు. ముఖ్యంగా ఇది నిర్మాణాత్మక డేటాను తిరిగి ఇస్తుంది, CSV లేదా JSON ను నేరుగా ఎగుమతి చేయవచ్చు, ఉపయోగించడానికి సిద్ధంగా ఉంది.
ఇతర నైపుణ్యాలు పోటీ విశ్లేషణ, బ్రాండ్ రేటింగ్ మానిటరింగ్, ఈ-కామర్స్ డేటా సేకరణ, KOL కనుగొనడం, లీడ్ పొందడం, ట్రెండ్ విశ్లేషణ వంటి సందర్భాలను కవర్ చేస్తాయి. మీరు మార్కెట్ పరిశోధన లేదా వ్యాపార డేటా విశ్లేషణ చేస్తే, ఈ సమితి నిజంగా అద్భుతం.
Claude Code లో ఈ నైపుణ్యాలను ఇన్స్టాల్ చేయడం కూడా చాలా సులభం. ముందుగా ఒక Apify ఖాతా అవసరం (apify.com లో నమోదు చేయండి, ఉచిత పరిమితి ఉంది), API టోకెన్ పొందిన తర్వాత మీరు కాన్ఫిగర్ చేయడం ప్రారంభించవచ్చు.
ఇన్స్టాలేషన్ రెండు దశలుగా జరుగుతుంది. మొదట మార్కెట్ మూలాలను జోడించండి:/plugin marketplace add https://github.com/apify/agent-skillsమీకు అవసరమైన నైపుణ్యాలను ఇన్స్టాల్ చేయండి, ఉదాహరణకు యూనివర్సల్ స్క్రాపర్:
/plugin install apify-ultimate-scraper@apify-agent-skills మీరు అన్ని నైపుణ్యాలను ఒకే సారి ఇన్స్టాల్ చేయడానికి సాధారణ npx పద్ధతిని కూడా ఉపయోగించవచ్చు:
npx skills add apify/agent-skills ఇన్స్టాల్ చేసిన తర్వాత మీ ప్రాజెక్ట్ యొక్క మూల డైరెక్టరీలో .env ఫైల్లో మీ API టోకెన్ను సెట్ చేయడం మర్చిపోకండి:
APIFYTOKEN=మీ టోకెన్
ఉదాహరణకు Youtube వీడియో డేటాను పంచుకోవడం
ఇక్కడ ఒక కీలక పాయింట్ ఉంది. Santiago ట్వీట్లో పునరావృతంగా చెప్పినట్లుగా, ఈ పద్ధతిలోని ప్రధాన ప్రయోజనం నిర్మాణాత్మక డేటాను తిరిగి ఇవ్వడం. ఉదాహరణకు, మీరు Claude Codeని ఒక ఈ-కామర్స్ ప్లాట్ఫారమ్లోని ఉత్పత్తుల జాబితాను పంచుకోవడానికి అడిగితే, మీరు పొందే దానిని సవరించిన పట్టిక (ఉత్పత్తి పేరు, ధర, రేటింగ్, లింక్)గా ఉంటుంది, ఇది నేరుగా విశ్లేషణ కోసం ఉపయోగించవచ్చు, WebFetch తిరిగి ఇచ్చే వచన సారాంశం కంటే చాలా ఉపయోగకరంగా ఉంటుంది.
Apify యొక్క చెల్లింపు మోడల్ ఫలితాల ప్రకారం చెల్లించబడుతుంది, అంటే డేటాను విజయవంతంగా పంచుకున్నప్పుడు మాత్రమే డబ్బు తీసుకుంటారు. అయితే వ్యక్తిగత వినియోగదారుల కోసం, ఉచిత క్వోటా చాలా విషయాలను చేయడానికి సరిపోతుంది.
పద్ధతి 2: Apify MCP సర్వర్
మీరు మరింత సౌకర్యవంతమైన నియంత్రణను కోరుకుంటే, లేదా నైపుణ్యాలలో మీ దృశ్యాన్ని కవర్ చేయకపోతే, మరొక మార్గం ఉంది: Apify ప్లాట్ఫారమ్కు నేరుగా MCP (మోడల్ కాంటెక్స్ట్ ప్రోటోకాల్) ద్వారా కనెక్ట్ అవ్వడం.
Apify MCP సర్వర్ ద్వారా, Claude Code Apify స్టోర్లోని వేలాది సిద్ధమైన స్క్రాపర్లు మరియు ఆటోమేషన్ టూల్లను నేరుగా పిలవవచ్చు.
GitHub గిట్టుబాటు చిరునామా: https://github.com/apify/apify-mcp-server
MCP పద్ధతి కాన్ఫిగరేషన్ కూడా క్లిష్టంగా లేదు. హోస్టెడ్ రిమోట్ సర్వర్ పద్ధతిని ఉపయోగించడం సిఫార్సు చేయబడింది, కాన్ఫిగరేషన్ చాలా సులభం. మీ MCP కాన్ఫిగరేషన్ ఫైలులో చేర్చండి:
{ "mcpServers": { "apify": { "url": "https://mcp.apify.com", "headers": { "Authorization": "Bearer మీ APIFYTOKEN" } } } } మీరు స్థానికంగా నడపడం ఇష్టపడితే, Stdio పద్ధతిని ఉపయోగించవచ్చు:
{ "mcpServers": { "apify-mcp": { "command": "npx", "args": ["-y", "@apify/actors-mcp-server"], "env": { "APIFYTOKEN": "మీ APIFYTOKEN" } } } }` సెట్ చేసిన తర్వాత, Claude Code search-actors (అందుబాటులో ఉన్న స్క్రాపర్లను శోధించడం), call-actor (స్క్రాపర్ పనిని అమలు చేయడం), get-dataset-items (పంచుకున్న ఫలితాలను పొందడం) వంటి టూల్లను పిలవగలదు.
Skills మరియు MCP పద్ధతులను రెండూ ఇన్స్టాల్ చేయవచ్చు, రెండూ పరస్పరంగా పూర్తి చేయవచ్చు.
మీ అవసరం అధిక ఫ్రీక్వెన్సీ, స్థిరమైన దృశ్యం (ఉదాహరణకు, ప్రతిరోజు పోటీ ఉత్పత్తుల ధరను పంచుకోవడం) అయితే, Skills ఉపయోగించడం మరింత సులభం, ముందుగా రూపొందించిన పని ప్రవాహం బాక్స్ నుండి ఉపయోగించడానికి సిద్ధంగా ఉంది.
మీ అవసరం తాత్కాలిక, దృశ్యం మారుతున్న (ఈ రోజు సోషల్ మీడియాను పంచుకోవడం, రేపు ప్రభుత్వ పబ్లిక్ డేటాను పంచుకోవడం) అయితే, MCP మరింత సౌకర్యవంతంగా ఉంటుంది, Apify స్టోర్లో 15000+ యాక్టర్లు ఎప్పుడైనా పిలవబడవచ్చు.
రెండు పద్ధతుల ముందు నిబంధన ఒకే విధంగా ఉంది: Apify ఖాతా మరియు API టోకెన్ అవసరం, Node.js 20.6+ వాతావరణం అవసరం.
ఒక సమయ బిందువును తప్పక గమనించాలి: Apify MCP సర్వర్ యొక్క SSE ప్రసార పద్ధతి 2026 ఏప్రిల్ 1న రద్దు చేయబడుతుంది, ఆ సమయంలో Streamable HTTP పద్ధతికి నవీకరించాల్సి ఉంటుంది. మీరు ఇప్పుడు కాన్ఫిగర్ చేయడం ప్రారంభిస్తే, పై సిఫార్సు చేసిన కాన్ఫిగరేషన్ను నేరుగా ఉపయోగించండి, ఇది కొత్త పద్ధతి.

