Claude Code + Apify,无障碍抓取全网数据
Claude Code + Apify,无障碍抓取全网数据
ਸਤ ਸ੍ਰੀ ਅਕਾਲ, ਮੈਂ ਲੂ ਗੋਂਗ ਹਾਂ।
ਜਦੋਂ ਤੁਸੀਂ Claude Code ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਖਾਸ ਕਰਕੇ Plan mode ਵਿੱਚ, ਤੁਹਾਨੂੰ ਵੈਬਸਾਈਟ ਡੇਟਾ ਖਿੱਚਣ ਲਈ WebSearch ਟੂਲ ਦੀ ਮਦਦ ਲੈਣ ਦੀ ਲੋੜ ਪੈਂਦੀ ਹੈ। ਪਰ ਅਕਸਰ Fetch error ਦੀ ਸਥਿਤੀ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ।
ਇਹ ਦਰਅਸਲ ਇੱਕ ਪੁਰਾਣਾ ਸਮੱਸਿਆ ਹੈ। Claude Code ਦੇ ਨਾਲ ਆਉਣ ਵਾਲੇ WebFetch ਅਤੇ WebSearch ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਕੇ, ਜਾਣਕਾਰੀ ਲੱਭਣ ਅਤੇ ਖੋਜ ਕਰਨ ਦੇ 80% ਮਾਮਲਿਆਂ ਵਿੱਚ ਇਹ ਕਾਫੀ ਹੈ, ਪਰ ਜਦੋਂ JS ਰੇਂਡਰ ਕੀਤੇ ਗਏ ਪੰਨਿਆਂ, ਲੌਗਇਨ ਦੀ ਲੋੜ ਵਾਲੀਆਂ ਸਾਈਟਾਂ ਜਾਂ ਵੱਡੇ ਪੈਮਾਨੇ 'ਤੇ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦੀ ਲੋੜ ਆਉਂਦੀ ਹੈ, ਤਾਂ ਇਹ ਅੰਦਰੂਨੀ ਟੂਲ ਕੰਮ ਨਹੀਂ ਕਰਦੇ।
ਕੱਲ੍ਹ, ਮੈਂ ਸਾਂਤਿਆਗੋ (@svpino, AI/ML ਖੇਤਰ ਦੇ ਪ੍ਰਸਿੱਧ ਬਲੌਗਰ) ਦੁਆਰਾ ਸਾਂਝਾ ਕੀਤੀ ਇੱਕ ਯੋਜਨਾ ਦੇਖੀ, ਉਸਨੇ ਕਿਹਾ ਕਿ Claude Code ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਕਿਸੇ ਵੀ ਵੈਬਸਾਈਟ ਤੋਂ ਰੀਅਲ-ਟਾਈਮ ਸਾਂਰਚਿਤ ਡੇਟਾ ਖਿੱਚਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਜੋ ਕਿ ਸਿੱਧਾ ਵਰਤਣ ਯੋਗ ਟੇਬਲ ਦੇ ਰੂਪ ਵਿੱਚ ਵਾਪਸ ਆਉਂਦਾ ਹੈ, ਨਾ ਕਿ ਇੱਕ ਵੱਡੇ ਪੈਰਾਗ੍ਰਾਫ ਦੇ ਰੂਪ ਵਿੱਚ। ਮੈਂ ਇਸਨੂੰ ਇੱਕ ਵਾਰੀ ਅਜ਼ਮਾਇਆ, ਇਹ ਵਾਕਈ ਬਹੁਤ ਵਧੀਆ ਹੈ।
ਅੱਜ ਅਸੀਂ ਗੱਲ ਕਰਾਂਗੇ ਕਿ Claude Code ਨੂੰ ਪੂਰੇ ਵੈਬ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਕਿਵੇਂ ਦਿੱਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਦੋ ਰਸਤੇ, ਜਿਵੇਂ ਲੋੜ ਹੋਵੇ।
Claude Code ਦੇ ਅੰਦਰੂਨੀ ਨੈੱਟਵਰਕ ਟੂਲ ਦੀਆਂ ਕਮਜ਼ੋਰੀਆਂ
Claude Code ਦੇ ਨਾਲ ਦੋ ਨੈੱਟਵਰਕ ਟੂਲ ਹਨ: WebSearch ਖੋਜ ਲਈ ਜਿੰਨਾ ਕਿ WebFetch ਪੰਨੇ ਦੇ ਸਮੱਗਰੀ ਨੂੰ ਖਿੱਚਣ ਲਈ।
WebSearch ਕਾਫੀ ਸਧਾਰਨ ਹੈ, ਤੁਸੀਂ ਇਸਨੂੰ ਇੱਕ ਖੋਜ ਸ਼ਬਦ ਦਿੰਦੇ ਹੋ, ਇਹ ਸੰਬੰਧਿਤ ਲਿੰਕ ਅਤੇ ਸਿਰਲੇਖ ਵਾਪਸ ਕਰਦਾ ਹੈ। WebFetch ਥੋੜ੍ਹਾ ਜਟਿਲ ਹੈ, ਤੁਸੀਂ ਇਸਨੂੰ ਇੱਕ URL ਅਤੇ ਇੱਕ ਸਵਾਲ ਦਿੰਦੇ ਹੋ, ਇਹ ਪੰਨੇ ਦੀ ਸਮੱਗਰੀ ਖਿੱਚਦਾ ਹੈ, Turndown ਲਾਇਬ੍ਰੇਰੀ ਦੀ ਵਰਤੋਂ ਕਰਕੇ HTML ਨੂੰ Markdown ਵਿੱਚ ਬਦਲਦਾ ਹੈ, 100KB ਦੇ ਅੰਦਰ ਕੱਟਦਾ ਹੈ, ਫਿਰ ਇੱਕ ਹਲਕੇ ਮਾਡਲ (Haiku) ਦੀ ਮਦਦ ਨਾਲ ਤੁਹਾਨੂੰ ਸੰਖੇਪ ਕਰਦਾ ਹੈ।
ਸਾਫ਼ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਇਹ ਦੋ ਟੂਲ ਇੱਕ ਸਧਾਰਨ ਬ੍ਰਾਊਜ਼ਰ ਦੇ ਸਮਾਨ ਹਨ। ਵਰਤੋਂ ਯੋਗ ਹਨ, ਪਰ ਕੁਝ ਮੁੱਖ ਸਮੱਸਿਆਵਾਂ ਹਨ।
ਸਭ ਤੋਂ ਵੱਡੀ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਇਹ JS ਨੂੰ ਰੇਂਡਰ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਹੁਣ ਬਹੁਤ ਸਾਰੀਆਂ ਵੈਬਸਾਈਟਾਂ SPA (ਇੱਕ ਪੰਨਾ ਐਪਲੀਕੇਸ਼ਨ) ਹਨ, ਸਮੱਗਰੀ JS ਦੁਆਰਾ ਗਤੀਸ਼ੀਲ ਤੌਰ 'ਤੇ ਲੋਡ ਹੁੰਦੀ ਹੈ। X/Twitter, ਬਹੁਤ ਸਾਰੀਆਂ ਈ-ਕਾਮਰਸ ਪਲੇਟਫਾਰਮਾਂ, ਵੱਖ-ਵੱਖ SaaS ਬੈਕਐਂਡ, WebFetch ਅਸਲ ਸਮੱਗਰੀ ਨਹੀਂ ਖਿੱਚ ਸਕਦਾ, ਸਿਰਫ ਇੱਕ ਖਾਲੀ ਖੋਖਾ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ।
ਵਿਰੋਧੀ ਖਿੱਚਣ ਦੀ ਸਮਰੱਥਾ ਵੀ ਬੁਨਿਆਦੀ ਤੌਰ 'ਤੇ ਜ਼ੀਰੋ ਹੈ। ਪ੍ਰਾਕਸੀ ਰੋਲਿੰਗ ਦਾ ਸਮਰਥਨ ਨਹੀਂ ਹੈ, CAPTCHA ਵੈਰੀਫਿਕੇਸ਼ਨ ਨੂੰ ਸੰਭਾਲ ਨਹੀਂ ਸਕਦਾ, ਜੇਕਰ ਕਿਸੇ ਵਿਰੋਧੀ ਖਿੱਚਣ ਮਕੈਨਿਜ਼ਮ ਵਾਲੀ ਵੈਬਸਾਈਟ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ ਤਾਂ ਇਹ ਸਿਰਫ਼ ਹਾਰ ਮੰਨਣ ਲਈ ਬਚਦਾ ਹੈ।
ਇੱਕ ਹੋਰ ਦਰਦ ਦਾ ਬਿੰਦੂ ਇਹ ਹੈ ਕਿ ਇਹ ਸਿਰਫ਼ ਪਾਠ ਸੰਖੇਪ ਵਾਪਸ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਸਾਂਰਚਿਤ ਡੇਟਾ (ਜਿਵੇਂ ਕਿ ਉਤਪਾਦ ਕੀਮਤਾਂ ਦੀ ਸੂਚੀ, ਉਪਭੋਗਤਾ ਸਮੀਖਿਆਵਾਂ ਦੀ ਸੂਚੀ, ਮੁਕਾਬਲੇ ਦੇ ਫੰਕਸ਼ਨ ਦੀ ਤੁਲਨਾ) ਪ੍ਰਾਪਤ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹੋ, ਤਾਂ WebFetch ਇਹ ਨਹੀਂ ਕਰ ਸਕਦਾ, ਇਹ ਤੁਹਾਨੂੰ ਹਮੇਸ਼ਾ ਇੱਕ ਸੰਕੁਚਿਤ ਪਾਠ ਦੇ ਰੂਪ ਵਿੱਚ ਦੇਵੇਗਾ।
ਇਹ ਤਿੰਨ ਕਮਜ਼ੋਰੀਆਂ ਮਿਲ ਕੇ Claude Code ਨੂੰ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਦਾ ਲਈ ਅਸਾਨੀ ਦੀ ਘਾਟ ਦਿੰਦੇ ਹਨ। ਪਰ ਹੁਣ ਇੱਕ ਹੱਲ ਹੈ।
ਤਰੀਕਾ 1: Apify ਏਜੰਟ ਸਕਿਲਜ਼
Apify ਇੱਕ ਪੁਰਾਣਾ ਕਲਾਉਡ ਸਕ੍ਰੈਪਰ ਪਲੇਟਫਾਰਮ ਹੈ, ਜੋ ਕਿ ਵੈਬ ਪੰਨਿਆਂ ਨੂੰ ਖਿੱਚਣ ਅਤੇ ਆਟੋਮੈਸ਼ਨ ਵਿੱਚ ਬਹੁਤ ਸਾਲਾਂ ਤੋਂ ਕੰਮ ਕਰ ਰਿਹਾ ਹੈ। ਹਾਲ ਹੀ ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੇ ਇੱਕ ਏਜੰਟ ਸਕਿਲਜ਼ ਦਾ ਇੱਕ ਸੈੱਟ ਲਾਂਚ ਕੀਤਾ ਹੈ, ਸਧਾਰਨ ਤੌਰ 'ਤੇ ਇਹ ਇੱਕ ਪ੍ਰੀ-ਬਨਾਈ ਗਈ ਸਕਿਲ ਪੈਕੇਜ ਦਾ ਸਮੂਹ ਹੈ, ਜੋ ਕਿ AI ਕੋਡਿੰਗ ਏਜੰਟ ਨੂੰ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਦਾ ਤਰੀਕਾ ਸਿਖਾਉਂਦਾ ਹੈ।
GitHub ਰਿਪੋਜ਼ਿਟਰੀ ਦਾ ਪਤਾ: https://github.com/apify/agent-skills
ਇਹ ਸਕਿਲਜ਼ Claude Code, Cursor, Codex, Gemini CLI ਆਦਿ ਪ੍ਰਮੁੱਖ AI ਪ੍ਰੋਗ੍ਰਾਮਿੰਗ ਟੂਲਾਂ ਨੂੰ ਸਮਰਥਨ ਕਰਦੀਆਂ ਹਨ। ਇਸ ਸਮੇਂ ਕੁੱਲ 12 ਸਕਿਲਜ਼ ਹਨ, ਜੋ ਕਿ ਕਾਫੀ ਵਿਆਪਕ ਹਨ।
ਮੁੱਖ apify-ultimate-scraper ਇੱਕ ਯੂਨੀਵਰਸਲ ਸਕ੍ਰੈਪਰ ਸਕਿਲ ਹੈ, ਜੋ Instagram, Facebook, TikTok, YouTube, Google Maps, Google Search ਆਦਿ ਪਲੇਟਫਾਰਮਾਂ ਤੋਂ ਡੇਟਾ ਖਿੱਚ ਸਕਦਾ ਹੈ। ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਇਹ ਸਾਂਰਚਿਤ ਡੇਟਾ ਵਾਪਸ ਕਰਦਾ ਹੈ, ਜਿਸਨੂੰ ਸਿੱਧਾ CSV ਜਾਂ JSON ਵਿੱਚ ਨਿਕਾਲਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਜਿਸਨੂੰ ਵਰਤਣ ਲਈ ਤਿਆਰ ਹੈ।
ਹੋਰ ਸਕਿਲਜ਼ ਮੁਕਾਬਲੇ ਦੀ ਵਿਸ਼ਲੇਸ਼ਣ, ਬ੍ਰਾਂਡ ਮੌਲਿਕਤਾ ਦੀ ਨਿਗਰਾਨੀ, ਈ-ਕਾਮਰਸ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ, KOL ਖੋਜ, ਸੰਭਾਵਿਤ ਗਾਹਕ ਪ੍ਰਾਪਤੀ, ਰੁਝਾਨ ਵਿਸ਼ਲੇਸ਼ਣ ਆਦਿ ਦੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣਾਂ ਨੂੰ ਕਵਰ ਕਰਦੀਆਂ ਹਨ। ਜੇਕਰ ਤੁਸੀਂ ਮਾਰਕੀਟ ਖੋਜ ਜਾਂ ਵਪਾਰ ਡੇਟਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਇਹ ਸੈੱਟ ਬੇਹੱਦ ਸ਼ਾਨਦਾਰ ਹੈ।
Claude Code ਵਿੱਚ ਇਸ ਸਕਿਲਜ਼ ਨੂੰ ਇੰਸਟਾਲ ਕਰਨਾ ਵੀ ਬਹੁਤ ਆਸਾਨ ਹੈ। ਪਹਿਲਾਂ ਤੁਹਾਨੂੰ ਇੱਕ Apify ਖਾਤਾ ਦੀ ਲੋੜ ਹੈ (apify.com ਤੇ ਰਜਿਸਟਰ ਕਰੋ, ਮੁਫ਼ਤ ਕੋਟਾ ਹੈ), API Token ਪ੍ਰਾਪਤ ਕਰਨ ਤੋਂ ਬਾਅਦ ਤੁਸੀਂ ਸੰਰਚਨਾ ਸ਼ੁਰੂ ਕਰ ਸਕਦੇ ਹੋ।
ਇੰਸਟਾਲੇਸ਼ਨ ਦੋ ਪੜਾਵਾਂ ਵਿੱਚ ਵੰਡਿਆ ਗਿਆ ਹੈ। ਪਹਿਲਾਂ ਮਾਰਕੀਟ ਸਰੋਤ ਸ਼ਾਮਲ ਕਰੋ:/plugin marketplace add https://github.com/apify/agent-skills' ਫਿਰ ਤੁਹਾਨੂੰ ਲੋੜੀਂਦੇ ਹੁਨਰਾਂ ਨੂੰ ਇੰਸਟਾਲ ਕਰੋ, ਜਿਵੇਂ ਕਿ ਯੂਨੀਵਰਸਲ ਸਕ੍ਰੈਪਰ:
/plugin install apify-ultimate-scraper@apify-agent-skills ਤੁਸੀਂ ਸਾਰੇ ਹੁਨਰ ਇੱਕ ਵਾਰੀ ਵਿੱਚ ਇੰਸਟਾਲ ਕਰਨ ਲਈ ਆਮ npx ਤਰੀਕੇ ਨਾਲ ਵੀ ਕਰ ਸਕਦੇ ਹੋ:
npx skills add apify/agent-skills ਇੰਸਟਾਲ ਕਰਨ ਤੋਂ ਬਾਅਦ ਯਾਦ ਰੱਖੋ ਕਿ ਪ੍ਰੋਜੈਕਟ ਦੇ ਮੁੱਖ ਡਾਇਰੈਕਟਰੀ ਵਿੱਚ .env ਫਾਈਲ ਵਿੱਚ ਆਪਣਾ API ਟੋਕਨ ਸੈਟ ਕਰੋ:
APIFYTOKEN=ਤੁਹਾਡਾ ਟੋਕਨ
ਉਦਾਹਰਨ ਲਈ Youtube ਵੀਡੀਓ ਡੇਟਾ ਨੂੰ ਕੈਚ ਕਰਨਾ
ਇੱਥੇ ਇੱਕ ਮੁੱਖ ਬਿੰਦੂ ਹੈ। ਸਾਂਤਿਆਗੋ ਨੇ ਟਵੀਟ ਵਿੱਚ ਵਾਰੰ-ਵਾਰ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਇਸ ਯੋਜਨਾ ਦਾ ਮੁੱਖ ਫਾਇਦਾ ਇਹ ਹੈ ਕਿ ਇਹ ਸੰਰਚਿਤ ਡੇਟਾ ਵਾਪਸ ਕਰਦੀ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਜੇ ਤੁਸੀਂ Claude Code ਨੂੰ ਕਿਸੇ ਈ-ਕਾਮਰਸ ਪਲੇਟਫਾਰਮ ਦੇ ਉਤਪਾਦਾਂ ਦੀ ਸੂਚੀ ਕੈਚ ਕਰਨ ਲਈ ਕਹਿੰਦੇ ਹੋ, ਤਾਂ ਤੁਹਾਨੂੰ ਇੱਕ ਸੁਧਰੇ ਹੋਏ ਟੇਬਲ (ਉਤਪਾਦ ਦਾ ਨਾਮ, ਕੀਮਤ, ਰੇਟਿੰਗ, ਲਿੰਕ) ਮਿਲਦਾ ਹੈ, ਜਿਸਨੂੰ ਤੁਸੀਂ ਸਿੱਧਾ ਵਿਸ਼ਲੇਸ਼ਣ ਲਈ ਵਰਤ ਸਕਦੇ ਹੋ, ਜੋ ਕਿ WebFetch ਦੁਆਰਾ ਵਾਪਸ ਕੀਤੇ ਗਏ ਲਿਖਤੀ ਸੰਖੇਪ ਤੋਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਉਪਯੋਗੀ ਹੈ।
Apify ਦੀ ਬਿਲਿੰਗ ਮਾਡਲ ਨਤੀਜੇ ਦੇ ਆਧਾਰ 'ਤੇ ਹੈ, ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸਿਰਫ਼ ਜਦੋਂ ਤੁਸੀਂ ਡੇਟਾ ਸਫਲਤਾਪੂਰਵਕ ਕੈਚ ਕਰਦੇ ਹੋ, ਤਾਂ ਹੀ ਪੈਸਾ ਕੱਟਿਆ ਜਾਂਦਾ ਹੈ। ਪਰ ਵਿਅਕਤੀਗਤ ਉਪਭੋਗਤਾਵਾਂ ਲਈ, ਮੁਫ਼ਤ ਕੋਟਾ ਕਾਫੀ ਹੈ।
ਤਰੀਕਾ ਦੋ: Apify MCP ਸਰਵਰ
ਜੇ ਤੁਸੀਂ ਹੋਰ ਲਚਕੀਲਾ ਨਿਯੰਤਰਣ ਚਾਹੁੰਦੇ ਹੋ, ਜਾਂ Skills ਵਿੱਚ ਤੁਹਾਡੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਨੂੰ ਕਵਰ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਹੈ, ਤਾਂ ਇੱਕ ਦੂਜਾ ਰਸਤਾ ਹੈ: ਸਿੱਧਾ MCP (ਮਾਡਲ ਸੰਦਰਭ ਪ੍ਰੋਟੋਕੋਲ) ਦੁਆਰਾ Apify ਪਲੇਟਫਾਰਮ ਨਾਲ ਜੁੜਨਾ।
Apify MCP ਸਰਵਰ ਦੁਆਰਾ, Claude Code ਸਿੱਧਾ Apify ਸਟੋਰ ਵਿੱਚ ਹਜ਼ਾਰਾਂ ਤਿਆਰ ਸਕ੍ਰੈਪਰਾਂ ਅਤੇ ਆਟੋਮੇਸ਼ਨ ਟੂਲਾਂ ਨੂੰ ਕਾਲ ਕਰ ਸਕਦਾ ਹੈ।
GitHub ਰਿਪੋਜ਼ਿਟਰੀ ਦਾ ਪਤਾ: https://github.com/apify/apify-mcp-server
MCP ਯੋਜਨਾ ਦੀ ਸੰਰਚਨਾ ਵੀ ਜ਼ਿਆਦਾ ਜਟਿਲ ਨਹੀਂ ਹੈ। ਸਿਫਾਰਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਕਿ ਤੁਸੀਂ ਮੈਨੇਜ ਕੀਤੇ ਗਏ ਦੂਰ ਦੇ ਸਰਵਰ ਦੇ ਤਰੀਕੇ ਨਾਲ ਵਰਤੋਂ ਕਰੋ, ਸੰਰਚਨਾ ਸਭ ਤੋਂ ਆਸਾਨ ਹੈ। ਆਪਣੇ MCP ਸੰਰਚਨਾ ਫਾਈਲ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰੋ:
{ "mcpServers": { "apify": { "url": "https://mcp.apify.com", "headers": { "Authorization": "Bearer ਤੁਹਾਡਾ APIFYTOKEN" } } } } ਜੇ ਤੁਸੀਂ ਸਥਾਨਕ ਚਲਾਉਣਾ ਪਸੰਦ ਕਰਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ Stdio ਤਰੀਕੇ ਨਾਲ ਕਰ ਸਕਦੇ ਹੋ:
{ "mcpServers": { "apify-mcp": { "command": "npx", "args": ["-y", "@apify/actors-mcp-server"], "env": { "APIFYTOKEN": "ਤੁਹਾਡਾ APIFYTOKEN" } } } } ਸਹੀ ਤਰੀਕੇ ਨਾਲ ਸੈਟ ਕਰਨ ਤੋਂ ਬਾਅਦ, Claude Code search-actors (ਉਪਲਬਧ ਸਕ੍ਰੈਪਰਾਂ ਦੀ ਖੋਜ), call-actor (ਸਕ੍ਰੈਪਰ ਕੰਮ ਨੂੰ ਚਲਾਉਣਾ), get-dataset-items (ਕੈਚ ਕੀਤੇ ਨਤੀਜੇ ਪ੍ਰਾਪਤ ਕਰਨਾ) ਆਦਿ ਟੂਲਾਂ ਨੂੰ ਕਾਲ ਕਰ ਸਕੇਗਾ।
Skills ਅਤੇ MCP ਤਰੀਕੇ ਦੋਹਾਂ ਨੂੰ ਇੰਸਟਾਲ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ, ਦੋਹਾਂ ਆਪਸ ਵਿੱਚ ਪੂਰਾ ਕਰ ਸਕਦੇ ਹਨ।
ਜੇ ਤੁਹਾਡੀ ਲੋੜ ਉੱਚ ਫ੍ਰੀਕਵੈਂਸੀ ਦੀ ਹੈ, ਫਿਕਸਡ ਦ੍ਰਿਸ਼ਟੀਕੋਣ (ਜਿਵੇਂ ਕਿ ਹਰ ਰੋਜ਼ ਮੁਕਾਬਲੇ ਦੇ ਕੀਮਤਾਂ ਨੂੰ ਕੈਚ ਕਰਨਾ), ਤਾਂ Skills ਵਰਤਣਾ ਜ਼ਿਆਦਾ ਆਸਾਨ ਹੈ, ਪ੍ਰੀ-ਬਿਲਟ ਵਰਕਫਲੋਅ ਬਾਕਸ ਤੋਂ ਬਾਹਰ ਵਰਤਣ ਲਈ ਤਿਆਰ ਹੈ।
ਜੇ ਤੁਹਾਡੀ ਲੋੜ ਅਸਥਾਈ ਹੈ, ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਬਦਲਦਾ ਹੈ (ਅੱਜ ਸੋਸ਼ਲ ਮੀਡੀਆ ਨੂੰ ਕੈਚ ਕਰਨਾ, ਕੱਲ੍ਹ ਸਰਕਾਰੀ ਖੁੱਲ੍ਹੇ ਡੇਟਾ ਨੂੰ ਕੈਚ ਕਰਨਾ), ਤਾਂ MCP ਜ਼ਿਆਦਾ ਲਚਕੀਲਾ ਹੈ, Apify ਸਟੋਰ ਵਿੱਚ 15000+ ਐਕਟਰ ਹਨ ਜੋ ਕਿਸੇ ਵੀ ਸਮੇਂ ਕਾਲ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ।
ਦੋਹਾਂ ਤਰੀਕਿਆਂ ਦੀ ਸ਼ਰਤ ਇੱਕੋ ਜਿਹੀ ਹੈ: Apify ਖਾਤਾ ਅਤੇ API ਟੋਕਨ ਦੀ ਲੋੜ ਹੈ, Node.js 20.6+ ਵਾਤਾਵਰਣ ਦੀ ਲੋੜ ਹੈ।
ਇੱਕ ਸਮੇਂ ਦੇ ਨੋਟ ਨੂੰ ਯਾਦ ਰੱਖਣਾ ਜਰੂਰੀ ਹੈ: Apify MCP ਸਰਵਰ ਦਾ SSE ਟ੍ਰਾਂਸਫਰ ਤਰੀਕਾ 2026 ਦੇ ਅਪ੍ਰੈਲ 1 ਨੂੰ ਰੱਦ ਕੀਤਾ ਜਾਵੇਗਾ, ਉਸ ਸਮੇਂ Streamable HTTP ਤਰੀਕੇ ਵਿੱਚ ਅੱਪਡੇਟ ਕਰਨ ਦੀ ਲੋੜ ਹੋਵੇਗੀ। ਜੇ ਤੁਸੀਂ ਹੁਣ ਸੰਰਚਨਾ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਸਿੱਧਾ ਉੱਪਰ ਦਿੱਤੀ ਗਈ ਸੰਰਚਨਾ ਵਰਤੋਂ, ਇਹ ਪਹਿਲਾਂ ਹੀ ਨਵਾਂ ਤਰੀਕਾ ਹੈ।

