పెద్ద భాషా నమూనా ఫైన్-ట్యూనింగ్ (Fine-tuning) పరిచయ మార్గదర్శి: భావనలు, పద్ధతులు మరియు ఆచరణ

2/19/2026
7 min read

పెద్ద భాషా నమూనా ఫైన్-ట్యూనింగ్ (Fine-tuning) పరిచయ మార్గదర్శి: భావనలు, పద్ధతులు మరియు ఆచరణ

పెద్ద భాషా నమూనాలు (LLMs) సహజ భాషా ప్రాసెసింగ్ రంగంలో గణనీయమైన పురోగతిని సాధించాయి, అవి టెక్స్ట్ జనరేషన్, అనువాదం, ప్రశ్నలకు సమాధానం ఇవ్వడం వంటి వాటిలో రాణిస్తున్నాయి. అయితే, ఈ నమూనాలు నిర్దిష్ట పనులు లేదా డొమైన్‌లలో మరింత మెరుగ్గా పనిచేయడానికి, ఫైన్-ట్యూనింగ్ (Fine-tuning) ఒక కీలకమైన సాంకేతికతగా మారింది. ఈ కథనం LLM ఫైన్-ట్యూనింగ్ యొక్క భావనలు, పద్ధతులు మరియు వాస్తవ అనువర్తనాలను లోతుగా పరిశీలిస్తుంది, తద్వారా ప్రారంభకులకు త్వరగా ప్రారంభించడానికి సహాయపడుతుంది.

ఫైన్-ట్యూనింగ్ అంటే ఏమిటి?

ఫైన్-ట్యూనింగ్ అంటే ముందుగా శిక్షణ పొందిన పెద్ద భాషా నమూనా ఆధారంగా, నిర్దిష్ట పని యొక్క డేటాసెట్‌ను ఉపయోగించి అదనపు శిక్షణ ఇవ్వడం. ముందుగా శిక్షణ పొందిన నమూనా సాధారణ భాషా పరిజ్ఞానాన్ని నేర్చుకుంటుంది, అయితే ఫైన్-ట్యూనింగ్ దానిని నిర్దిష్ట పని యొక్క వివరాలు మరియు నమూనాలకు అనుగుణంగా చేస్తుంది. ఊహించుకోండి, ముందుగా శిక్షణ పొందిన నమూనా విస్తృత పరిజ్ఞానాన్ని కలిగి ఉన్న ఒక విజ్ఞాన సర్వస్వం. ఫైన్-ట్యూనింగ్ అనేది నమూనాకు ప్రత్యేకంగా "వైద్యం" గురించి పరిచయం చేసే పుస్తకాన్ని అందించడం లాంటిది, ఇది వైద్య రంగంలో మరింత నైపుణ్యం పొందేలా చేస్తుంది.

మొదటి నుండి శిక్షణతో ఫైన్-ట్యూనింగ్ యొక్క పోలిక:

  • మొదటి నుండి శిక్షణ: దీనికి గణనీయమైన కంప్యూటింగ్ వనరులు మరియు డేటా అవసరం, శిక్షణ సమయం ఎక్కువ.
  • ఫైన్-ట్యూనింగ్: దీనికి తక్కువ డేటా మరియు కంప్యూటింగ్ వనరులు అవసరం, శిక్షణ సమయం తక్కువ మరియు సాధారణంగా మంచి ఫలితాలను సాధించగలదు.

ఫైన్-ట్యూనింగ్ ఎందుకు చేయాలి?

  • పనితీరును మెరుగుపరచడం: సెంటిమెంట్ విశ్లేషణ, టెక్స్ట్ వర్గీకరణ, మెషిన్ అనువాదం మొదలైన నిర్దిష్ట పనులలో నమూనాను మరింత మెరుగ్గా పని చేసేలా చేస్తుంది.
  • డొమైన్‌కు అనుగుణంగా: ఆర్థిక, న్యాయ, వైద్య మొదలైన నిర్దిష్ట డొమైన్‌ల పరిజ్ఞానం మరియు శైలికి నమూనాను అనుగుణంగా చేస్తుంది.
  • వనరులను ఆదా చేయడం: మొదటి నుండి శిక్షణతో పోలిస్తే, ఫైన్-ట్యూనింగ్ గణనీయంగా కంప్యూటింగ్ వనరులు మరియు సమయాన్ని తగ్గిస్తుంది.
  • నియంత్రణ: డెవలపర్‌లు నమూనా యొక్క అవుట్‌పుట్ శైలి మరియు ప్రవర్తనను మెరుగ్గా నియంత్రించడానికి అనుమతిస్తుంది.

ఫైన్-ట్యూనింగ్ యొక్క ముఖ్య దశలు

  1. ముందుగా శిక్షణ పొందిన నమూనాను ఎంచుకోండి: పనికి తగిన ముందుగా శిక్షణ పొందిన నమూనాను ఎంచుకోండి. ఉదాహరణకు, టెక్స్ట్ జనరేషన్ పని కోసం, GPT సిరీస్ నమూనాలను ఎంచుకోవచ్చు; ప్రశ్నలకు సమాధానం ఇచ్చే పని కోసం, BERT సిరీస్ నమూనాలను ఎంచుకోవచ్చు. Hugging Face Model Hub (https://huggingface.co/models) అనేది వివిధ ముందుగా శిక్షణ పొందిన నమూనాలను కనుగొనడానికి ఒక మంచి వనరు.

  2. డేటాసెట్‌ను సిద్ధం చేయండి: అధిక-నాణ్యత గల నిర్దిష్ట పని డేటాసెట్‌ను సిద్ధం చేయండి. డేటాసెట్ యొక్క పరిమాణం మరియు నాణ్యత ఫైన్-ట్యూనింగ్ ప్రభావంపై గొప్ప ప్రభావాన్ని చూపుతాయి.

    • డేటా శుభ్రపరచడం: డేటాలోని లోపాలు, శబ్దాలు మరియు అసమానతలను తొలగించండి.
    • డేటా లేబులింగ్: డేటాకు లేబుల్స్ ఇవ్వండి, ఉదాహరణకు టెక్స్ట్ వర్గీకరణకు వర్గాలను లేబుల్ చేయడం అవసరం, ప్రశ్నలకు సమాధానం ఇచ్చే పనులకు సమాధానాలను లేబుల్ చేయడం అవసరం.
    • డేటా విభజన: డేటాసెట్‌ను శిక్షణ సెట్, ధ్రువీకరణ సెట్ మరియు పరీక్ష సెట్‌గా విభజించండి.
  3. ఫైన్-ట్యూనింగ్ పారామితులను కాన్ఫిగర్ చేయండి: తగిన ఆప్టిమైజర్, లెర్నింగ్ రేటు, బ్యాచ్ సైజు, శిక్షణ ఎపోక్‌లు మొదలైన పారామితులను ఎంచుకోండి.

    • లెర్నింగ్ రేటు: లెర్నింగ్ రేటు నమూనా పారామితులను నవీకరించే వేగాన్ని నియంత్రిస్తుంది. అధిక లెర్నింగ్ రేటు నమూనాను అస్థిరపరచవచ్చు, తక్కువ లెర్నింగ్ రేటు శిక్షణను నెమ్మదింపజేస్తుంది. సాధారణ లెర్నింగ్ రేటు విలువలు: 1e-3, 1e-4, 1e-5.
    • బ్యాచ్ సైజు: బ్యాచ్ సైజు ప్రతి పునరావృత శిక్షణలో ఉపయోగించే నమూనాల సంఖ్యను నిర్ణయిస్తుంది. పెద్ద బ్యాచ్ సైజు శిక్షణ వేగాన్ని పెంచుతుంది, కానీ ఎక్కువ మెమరీని ఉపయోగించవచ్చు.
    • ఎపోక్‌లు: ఎపోక్‌లు అంటే మొత్తం శిక్షణ డేటాసెట్ నమూనా ద్వారా ఎన్నిసార్లు తిప్పబడిందో సూచిస్తుంది. ఎక్కువ ఎపోక్‌లు ఓవర్‌ఫిట్టింగ్‌కు దారితీయవచ్చు, తక్కువ ఎపోక్‌లు తగినంత శిక్షణ లేకపోవడానికి దారితీయవచ్చు.
  4. ఫైన్-ట్యూనింగ్ చేయండి: సిద్ధం చేసిన డేటాసెట్ మరియు కాన్ఫిగర్ చేసిన పారామితులను ఉపయోగించి, ముందుగా శిక్షణ పొందిన నమూనాపై ఫైన్-ట్యూనింగ్ చేయండి. సాధారణ ఫైన్-ట్యూనింగ్ ఫ్రేమ్‌వర్క్‌లలో TensorFlow, PyTorch మరియు Hugging Face Transformers ఉన్నాయి.

  5. నమూనాను అంచనా వేయండి: పరీక్ష సెట్‌ను ఉపయోగించి ఫైన్-ట్యూన్ చేసిన నమూనా పనితీరును అంచనా వేయండి మరియు అవసరమైన సర్దుబాట్లు చేయండి. సాధారణ అంచనా సూచికలలో ఖచ్చితత్వం, ప్రెసిషన్, రీకాల్, F1 విలువ మొదలైనవి ఉన్నాయి.

ఫైన్-ట్యూనింగ్ పద్ధతులు

1. పూర్తి ఫైన్-ట్యూనింగ్ (Full Fine-tuning)

ఇది అత్యంత ప్రత్యక్షమైన ఫైన్-ట్యూనింగ్ పద్ధతి, ఇది ముందుగా శిక్షణ పొందిన నమూనా యొక్క అన్ని పారామితులను నవీకరిస్తుంది.

  • ప్రయోజనాలు: ముందుగా శిక్షణ పొందిన నమూనా యొక్క పరిజ్ఞానాన్ని పూర్తిగా ఉపయోగించుకోవచ్చు మరియు నిర్దిష్ట పనిలో ఉత్తమ పనితీరును సాధించవచ్చు.
  • లోపాలు: దీనికి గణనీయమైన కంప్యూటింగ్ వనరులు మరియు మెమరీ అవసరం, ఓవర్‌ఫిట్టింగ్‌కు గురయ్యే అవకాశం ఉంది.

పెద్ద మోడల్‌లు చాలా పారామితులను కలిగి ఉన్నందున, పూర్తిగా ఫైన్-ట్యూన్ చేయడం చాలా ఖరీదైనది. పరామితి సమర్థవంతమైన ఫైన్-ట్యూనింగ్ పద్ధతులు మోడల్ యొక్క పారామితులలో ఒక చిన్న భాగాన్ని మాత్రమే నవీకరిస్తాయి, తద్వారా గణన ఖర్చు మరియు మెమరీ అవసరాలను తగ్గిస్తాయి.

*   **LoRA (Low-Rank Adaptation)**

    LoRA అసలైన మోడల్ యొక్క పరామితి నవీకరణలను అంచనా వేయడానికి తక్కువ-ర్యాంక్ మ్యాట్రిక్స్‌లను ప్రవేశపెడుతుంది. దీని ప్రధాన ఆలోచన ఏమిటంటే, ముందే శిక్షణ పొందిన మోడల్ యొక్క ప్రస్తుత వెయిట్ మ్యాట్రిక్స్ పక్కన ఒక తక్కువ-ర్యాంక్ మ్యాట్రిక్స్‌ను జోడించడం మరియు ఈ తక్కువ-ర్యాంక్ మ్యాట్రిక్స్‌లకు శిక్షణ ఇవ్వడం ద్వారా డౌన్‌స్ట్రీమ్ టాస్క్‌లకు అనుగుణంగా మార్చడం. ఈ విధంగా, శిక్షణ ఇవ్వడానికి కొన్ని పారామితులు మాత్రమే అవసరం, ఇది గణన ఖర్చును బాగా తగ్గిస్తుంది.

    ```python
    # Hugging Face PEFT లైబ్రరీని ఉపయోగించి LoRA ఫైన్-ట్యూనింగ్ చేయండి
    from peft import LoraConfig, get_peft_model

    # LoRA కాన్ఫిగరేషన్‌ను నిర్వచించండి
    lora_config = LoraConfig(
        r=8, # తక్కువ-ర్యాంక్ మ్యాట్రిక్స్ యొక్క ర్యాంక్
        lora_alpha=32, # LoRA స్కేలింగ్ ఫ్యాక్టర్
        lora_dropout=0.05, # LoRA డ్రాపౌట్ సంభావ్యత
        bias="none",
        task_type="CAUSAL_LM" # టాస్క్ రకం
    )

    # ముందే శిక్షణ పొందిన మోడల్‌ను లోడ్ చేయండి
    model = AutoModelForCausalLM.from_pretrained(model_name_or_path)

    # LoRAను మోడల్‌కు వర్తింపజేయండి
    model = get_peft_model(model, lora_config)
    model.print_trainable_parameters()
    ```

*   **Prefix Tuning**

    Prefix Tuning అనేది ఇన్‌పుట్ సీక్వెన్స్ ముందు కొన్ని శిక్షణ ఇవ్వగల "prefix" వెక్టార్‌లను జోడిస్తుంది మరియు ఈ prefix వెక్టార్‌లకు శిక్షణ ఇవ్వడం ద్వారా మోడల్ యొక్క ప్రవర్తనను సర్దుబాటు చేస్తుంది. ఈ పద్ధతి అసలైన మోడల్ యొక్క పారామితులను సవరించాల్సిన అవసరం లేదు, కాబట్టి ఇది చాలా సమర్థవంతమైనది.

*   **Adapter Tuning**

    Adapter Tuning అనేది ముందే శిక్షణ పొందిన మోడల్ యొక్క ప్రతి లేయర్‌లో కొన్ని చిన్న న్యూరల్ నెట్‌వర్క్ మాడ్యూల్స్‌ను (adapters) చొప్పిస్తుంది మరియు ఈ adaptersకు శిక్షణ ఇవ్వడం ద్వారా డౌన్‌స్ట్రీమ్ టాస్క్‌లకు అనుగుణంగా మారుస్తుంది. పూర్తిగా ఫైన్-ట్యూనింగ్‌తో పోలిస్తే, Adapter Tuning శిక్షణ ఇవ్వడానికి కొన్ని పారామితులు మాత్రమే అవసరం, అయితే ఇది మంచి పనితీరును కొనసాగించగలదు.

### 3. Prompt Tuning

Prompt Tuning అనేది మరింత తేలికపాటి ఫైన్-ట్యూనింగ్ పద్ధతి, ఇది కావలసిన అవుట్‌పుట్‌ను ఉత్పత్తి చేయడానికి ముందే శిక్షణ పొందిన మోడల్‌కు మార్గనిర్దేశం చేయడానికి ఇన్‌పుట్ ప్రాంప్ట్‌ను ఆప్టిమైజ్ చేస్తుంది. ఈ పద్ధతి మోడల్ యొక్క ఏ పారామితులను సవరించాల్సిన అవసరం లేదు, కాబట్టి ఇది చాలా సమర్థవంతమైనది.

*   **Hard Prompt Tuning:** చేతితో ప్రాంప్ట్‌ను డిజైన్ చేయడం.
*   **Soft Prompt Tuning:** శిక్షణ ఇవ్వగల వెక్టార్‌లను ప్రాంప్ట్‌గా ఉపయోగించడం మరియు ఈ వెక్టార్‌లకు శిక్షణ ఇవ్వడం ద్వారా ప్రాంప్ట్‌ను ఆప్టిమైజ్ చేయడం.

```python
# శిక్షణ ఇవ్వగల ప్రాంప్ట్‌ను ఉపయోగించండి (Soft Prompt)
from peft import PromptTuningConfig, get_peft_model, PromptTuningInit, TaskType

# Prompt Tuning కాన్ఫిగరేషన్‌ను నిర్వచించండి
prompt_tuning_config = PromptTuningConfig(
    task_type=TaskType.CAUSAL_LM,
    prompt_tuning_init=PromptTuningInit.TEXT,
    num_virtual_tokens=20, # ప్రాంప్ట్ యొక్క పొడవు
    prompt_tuning_init_text="సమాధానం ఇవ్వండి:", # ప్రారంభ ప్రాంప్ట్
    tokenizer_name_or_path=model_name_or_path,
)
```# ముందే శిక్షణ పొందిన నమూనాని లోడ్ చేయండి
model = AutoModelForCausalLM.from_pretrained(model_name_or_path)

# నమూనాకు ప్రాంప్ట్ ట్యూనింగ్ (Prompt Tuning)ని వర్తింపజేయండి
model = get_peft_model(model, prompt_tuning_config)
model.print_trainable_parameters()

ఉపయోగకరమైన చిట్కాలు

  • డేటా వృద్ధి (Data Augmentation): శిక్షణ డేటాను యాదృచ్ఛికంగా మార్చడం ద్వారా, ఉదాహరణకు పర్యాయపదాలను ఉపయోగించడం, వాక్యాలను పునర్వ్యవస్థీకరించడం మొదలైన వాటి ద్వారా డేటా యొక్క వైవిధ్యాన్ని పెంచడం మరియు అధికంగా సరిపోల్చడాన్ని (Overfitting) నిరోధించడం.
  • ప్రారంభ ఆపుదల (Early Stopping): శిక్షణ సమయంలో, ధ్రువీకరణ సమితిపై పనితీరును పర్యవేక్షించండి మరియు పనితీరు మెరుగుపడనప్పుడు, అధికంగా సరిపోల్చడాన్ని నివారించడానికి శిక్షణను ముందుగానే ఆపివేయండి.
  • అభ్యాస రేటు క్షీణత (Learning Rate Decay): శిక్షణ సమయంలో, క్రమంగా అభ్యాస రేటును తగ్గించడం వలన నమూనా మరింత స్థిరంగా సరైన పరిష్కారానికి చేరుకుంటుంది.
  • క్రమబద్ధీకరణ (Regularization): నమూనా పారామితులను పరిమితం చేయడానికి L1 లేదా L2 క్రమబద్ధీకరణను ఉపయోగించండి, అధికంగా సరిపోల్చడాన్ని నివారించండి.
  • ముందే శిక్షణ పొందిన ఎంబెడింగ్‌లను ఉపయోగించండి (Use Pre-trained Embeddings): ఉదాహరణకు GloVe లేదా Word2Vec, నమూనా యొక్క సాధారణీకరణ సామర్థ్యాన్ని మెరుగుపరుస్తాయి.

సిఫార్సు చేయబడిన సాధనాలు

  • హగ్గింగ్ ఫేస్ ట్రాన్స్‌ఫార్మర్స్ (Hugging Face Transformers): విస్తృత శ్రేణి ముందే శిక్షణ పొందిన నమూనాలు మరియు సూక్ష్మ ట్యూనింగ్ సాధనాలను అందిస్తుంది, ఇది LLM డెవలపర్‌లకు మొదటి ఎంపిక.
  • PEFT (Parameter-Efficient Fine-Tuning): హగ్గింగ్ ఫేస్ యొక్క లైబ్రరీ, ప్రత్యేకంగా పారామీటర్ సమర్థవంతమైన సూక్ష్మ ట్యూనింగ్ పద్ధతుల కోసం.
  • టెన్సార్‌బోర్డ్ (TensorBoard): శిక్షణ ప్రక్రియను దృశ్యమానం చేయడానికి ఒక సాధనం, ఇది నమూనా పనితీరును పర్యవేక్షించడానికి మరియు పారామితులను డీబగ్ చేయడానికి మీకు సహాయపడుతుంది.
  • వెయిట్స్ & బయాసెస్ (Weights & Biases): యంత్ర అభ్యాస ప్రయోగాలను ట్రాక్ చేయడానికి మరియు దృశ్యమానం చేయడానికి ఒక వేదిక.

ఆచరణాత్మక అనువర్తనాలు

  • భావోద్వేగ విశ్లేషణ (Sentiment Analysis): LLMని సూక్ష్మంగా ట్యూన్ చేయడం వలన భావోద్వేగ విశ్లేషణ యొక్క ఖచ్చితత్వాన్ని మెరుగుపరచవచ్చు, ఉదాహరణకు సినిమా సమీక్షలలో భావోద్వేగం సానుకూలంగా ఉందా లేదా ప్రతికూలంగా ఉందా అని గుర్తించడం.
  • వచన వర్గీకరణ (Text Classification): LLMని సూక్ష్మంగా ట్యూన్ చేయడం వలన వచన వర్గీకరణ పనుల కోసం ఉపయోగించవచ్చు, ఉదాహరణకు వార్తా కథనాలను వివిధ అంశాల వర్గాలుగా వర్గీకరించడం.
  • యంత్ర అనువాదం (Machine Translation): LLMని సూక్ష్మంగా ట్యూన్ చేయడం వలన యంత్ర అనువాదం యొక్క నాణ్యతను మెరుగుపరచవచ్చు, ఉదాహరణకు ఆంగ్లాన్ని తెలుగులోకి అనువదించడం.
  • ప్రశ్న-సమాధాన వ్యవస్థ (Question-Answering System): LLMని సూక్ష్మంగా ట్యూన్ చేయడం వలన ప్రశ్న-సమాధాన వ్యవస్థను నిర్మించడానికి ఉపయోగించవచ్చు, ఉదాహరణకు వినియోగదారులు అడిగిన ప్రశ్నలకు సమాధానం ఇవ్వడం.
  • కోడ్ ఉత్పత్తి (Code Generation): సూక్ష్మంగా ట్యూన్ చేసిన LLMని ఉపయోగించి కోడ్ శకలాలు ఉత్పత్తి చేయవచ్చు లేదా కోడ్‌ను పూర్తి చేయవచ్చు. ఉదాహరణకు GitHub కోపైలట్ ఒక విజయవంతమైన అప్లికేషన్.

గమనించవలసిన విషయాలు

  • అధికంగా సరిపోల్చడం (Overfitting): సూక్ష్మ ట్యూనింగ్ ప్రక్రియలో అధికంగా సరిపోయే దృగ్విషయం సులభంగా సంభవిస్తుంది, దీనికి తగిన చర్యలు తీసుకోవాలి, ఉదాహరణకు డేటా వృద్ధి, ప్రారంభ ఆపుదల, క్రమబద్ధీకరణ మొదలైనవి.
  • విపత్తుకరమైన మరపు (Catastrophic Forgetting): సూక్ష్మ ట్యూనింగ్ నమూనా ముందే శిక్షణ దశలో నేర్చుకున్న జ్ఞానాన్ని మరచిపోయేలా చేస్తుంది, సూక్ష్మ ట్యూనింగ్ వ్యూహాన్ని జాగ్రత్తగా ఎంచుకోవాలి.
  • డేటా పక్షపాతం (Data Bias): సూక్ష్మ ట్యూనింగ్ డేటాసెట్‌లో పక్షపాతం ఉంటే, అది నిర్దిష్ట సమూహాలలో నమూనా యొక్క పనితీరును దెబ్బతీస్తుంది.
  • భద్రతా సమస్యలు (Security Issues): సూక్ష్మంగా ట్యూన్ చేసిన నమూనా హానికరమైన లేదా సరికాని కంటెంట్‌ను ఉత్పత్తి చేయవచ్చు, దీనికి భద్రతా మూల్యాంకనం మరియు వడపోత అవసరం.

సారాంశం

LLM ఫైన్-ట్యూనింగ్ అనేది మోడల్ పనితీరును మెరుగుపరచడానికి, నిర్దిష్ట పనులు మరియు డొమైన్‌లకు అనుగుణంగా మార్చడానికి ఒక కీలకమైన సాంకేతికత. సరైన ప్రీ-ట్రెయిన్డ్ మోడల్‌ను ఎంచుకోవడం, అధిక-నాణ్యత డేటాసెట్‌ను సిద్ధం చేయడం, తగిన ఫైన్-ట్యూనింగ్ పారామితులను కాన్ఫిగర్ చేయడం మరియు వివిధ ఆచరణాత్మక చిట్కాలను కలపడం ద్వారా, మీరు LLMను విజయవంతంగా ఫైన్-ట్యూన్ చేయవచ్చు మరియు వివిధ అప్లికేషన్ దృశ్యాలలో అద్భుతమైన ఫలితాలను సాధించవచ్చు. ఈ కథనం ఒక ప్రారంభ గైడ్‌ను అందిస్తుంది, ఇది LLM ఫైన్-ట్యూనింగ్‌తో త్వరగా ప్రారంభించడానికి మీకు సహాయపడుతుందని ఆశిస్తున్నాము. సాంకేతికత నిరంతరం అభివృద్ధి చెందుతున్నందున, భవిష్యత్తులో మరింత సమర్థవంతమైన మరియు అనుకూలమైన ఫైన్-ట్యూనింగ్ పద్ధతులు వస్తాయి.

Published in Technology

You Might Also Like

📝
Technology

Claude Code Buddy మార్పు మార్గదర్శకం: ఎలా పొందాలి మెరుపు పురాణ స్థాయి పెంపుడు

Claude Code Buddy మార్పు మార్గదర్శకం: ఎలా పొందాలి మెరుపు పురాణ స్థాయి పెంపుడు 2026年4月1日,Anthropic 在 Claude Code 2.1.89 版...

Obsidian Defuddle విడుదల చేసింది, Obsidian Web Clipper ను కొత్త ఎత్తుకు తీసుకువెళ్ళిందిTechnology

Obsidian Defuddle విడుదల చేసింది, Obsidian Web Clipper ను కొత్త ఎత్తుకు తీసుకువెళ్ళింది

Obsidian Defuddle విడుదల చేసింది, Obsidian Web Clipper ను కొత్త ఎత్తుకు తీసుకువెళ్ళింది నేను ఎప్పుడూ Obsidian యొక్క కేం...

OpenAI తక్షణమే "మూడింటి" ప్రకటించింది: బ్రౌజర్ + ప్రోగ్రామింగ్ + ChatGPT విలీనం, గత సంవత్సరం తప్పు మార్గంలో నడిచినట్లు అంతర్గతంగా అంగీకరించిందిTechnology

OpenAI తక్షణమే "మూడింటి" ప్రకటించింది: బ్రౌజర్ + ప్రోగ్రామింగ్ + ChatGPT విలీనం, గత సంవత్సరం తప్పు మార్గంలో నడిచినట్లు అంతర్గతంగా అంగీకరించింది

OpenAI తక్షణమే "మూడింటి" ప్రకటించింది: బ్రౌజర్ + ప్రోగ్రామింగ్ + ChatGPT విలీనం, గత సంవత్సరం తప్పు మార్గంలో నడిచినట్లు అ...

2026, ఇకపై మీరే 'ఆత్మ నియంత్రణ'ని బలవంతం చేయవద్దు! ఈ 8 చిన్న విషయాలను సరిగ్గా చేయండి, ఆరోగ్యం స్వయంగా వస్తుందిHealth

2026, ఇకపై మీరే 'ఆత్మ నియంత్రణ'ని బలవంతం చేయవద్దు! ఈ 8 చిన్న విషయాలను సరిగ్గా చేయండి, ఆరోగ్యం స్వయంగా వస్తుంది

2026, ఇకపై మీరే 'ఆత్మ నియంత్రణ'ని బలవంతం చేయవద్దు! ఈ 8 చిన్న విషయాలను సరిగ్గా చేయండి, ఆరోగ్యం స్వయంగా వస్తుంది కొత్త సం...

అవి కష్టపడుతున్న తల్లులు, బరువు తగ్గలేక పోతున్న వారు, ఇక్కడే తప్పు చేస్తున్నారుHealth

అవి కష్టపడుతున్న తల్లులు, బరువు తగ్గలేక పోతున్న వారు, ఇక్కడే తప్పు చేస్తున్నారు

అవి కష్టపడుతున్న తల్లులు, బరువు తగ్గలేక పోతున్న వారు, ఇక్కడే తప్పు చేస్తున్నారు మార్చి నెల మూడవ భాగం దాటింది, మీ బరువు ...

📝
Technology

AI Browser 24小时稳定运行指南

AI Browser 24小时稳定运行指南 ఈ పాఠం స్థిరంగా, దీర్ఘకాలికంగా పనిచేసే AI బ్రౌజర్ వాతావరణాన్ని ఎలా ఏర్పాటు చేయాలో వివరిస్తుంది. 适用...