Na podstawie prawdziwego przypadku automatycznego programowania Claude Code, podzielę się kilkoma wskazówkami dotyczącymi promptów

2/11/2026
4 min read

W tym artykule, na podstawie prawdziwego przypadku, podzielę się z wami rzeczywistym przykładem użycia Claude Code. Zanim się podzielę, najpierw przeprowadzę małą ankietę.

Oryginalne wymaganie: Jeden szanowny płacący użytkownik chciał, żebym dodał czas modyfikacji artykułów.

Na pierwszy rzut oka realizacja tego wymagania wydaje się trudna. Ponieważ artykuły na mojej stronie nie są przechowywane w bazie danych, wszystkie są budowane przy użyciu SSG next.js. W ogóle nie mają czasu aktualizacji.

Jedna sztuczka tutaj to: przy rozwiązywaniu problemów, nie powinniśmy bezpośrednio podawać oryginalnych wymagań do Claude Code, z kilku powodów:

1. Oryginalne wymagania są stosunkowo niejasne, co może prowadzić do błędnego zrozumienia. Jeśli zostanie to źle zrozumiane, ostatecznie może dodać czas, ale ten czas może nie być wiarygodny.

2. Zużycie tokenów przez Claude Code jest naprawdę bardzo drogie, więc niejasne wymagania mogą prowadzić do marnowania dużej liczby tokenów.

Dlatego musimy przeanalizować oryginalne wymagania. Najpierw skonsultowałem się z deepseek, który dał mi dwie opcje:

1. Czas budowania pliku – przy każdej kompilacji musimy uzyskać czas budowania pliku, ale strategia pakowania turbopack jest nieco inna, przy każdej kompilacji wartość hash pliku się zmienia, więc ten czas budowania może nie być wiarygodny.

2. Czas commitów w git – pomyślałem, że to powinno być bardziej wiarygodne.

Mając ogólny kierunek rozwiązania, stworzyłem ten prosty prompt: Skompiluj czas commitów git w nagłówku każdego artykułu .mdx.

Claude Code jest dość wiarygodny, jeśli prompt jest precyzyjny, generalnie nie ma problemu, po prostu zaczyna działać.

Po zużyciu 7 dolarów z mojego limitu, w ciągu około 20 minut, w końcu się udało.

Jak można się było spodziewać, pojawił się niespodziewany problem – pominął zmiany w 171 plikach.

Podstępne jest to, że te pominięte pliki różniły się tylko przekazaniem dodatkowego parametru pass, poza tym były identyczne.

<PostLayout pass>...

Ale nie potrafił się dostosować i zdefiniował ten dodatkowy parametr jako zupełnie inny komponent niestandardowy. I wtedy pominął go, nie przetwarzając ~ ~

import Layout from 'components/post-layout';
import { getGitFileInfo } from '@/utils/git-info';
export default function Article({ children }: any) {
  const gitInfo = getGitFileInfo('src/app/TwojaŚcieżka/page.mdx');
  return (
    
      {children}
    
  );
}

Ale w rzeczywistości potrzebowałem takiego wyniku, a działający wynik byłby identyczny.

import MdxLayout from 'components/mdx-layout';
export default function Article({ children }: any) {
  return (
    
      {children}
    
  );
}

I wtedy wpadłem w pułapkę z promptem.

Ponownie wprowadziłem prompt: Użyj tej samej metody co powyżej, aby zrefaktorować pominięte 171 plików.

Moje sformułowanie, po zastanowieniu, ma pewną dwuznaczność. Ponieważ Claude Code już dał mi proponowane rozwiązanie, ale ja go nie zaakceptowałem, moją intencją było zmodyfikowanie pominiętych plików tak, jak setki już zmodyfikowanych plików, ale podczas wykonywania zostało to zrozumiane jako: to proponowane rozwiązanie, które mi dał.

Ta dwuznaczność spowodowała, że przez 20 minut działał według niechcianego rozwiązania, pojawiły się też 2 błędy z samonaprawą, gwałtownie pochłaniając moje tokeny, dwie interpretacje zaczęły ze sobą konkurować, powodując błędy.

Ostatecznie musiałem porzucić to wykonanie i ponownie wyjaśnić moje znaczenie.

Podsumowanie

1. W promptach najlepiej zawrzeć stosunkowo stabilne i dokładne rozwiązania, im mniej AI musi myśleć, tym lepiej, co zmniejsza wskaźnik halucynacji.

2. W promptach dotyczących wymagań absolutnie nie powinno być dwuznaczności, ponieważ łatwo prowadzi to do błędów. Chociaż Claude Code może ostatecznie je naprawić, powoduje to duże zużycie tokenów. Ponieważ LLM generuje wyniki na podstawie mechanizmu predykcyjnego, wczesne błędne odczytanie, dwuznaczności itp. powodują, że każdy kolejny krok oddala się w złym kierunku, a AI będzie próbowało zachować logiczną spójność, generując nieistniejące rzeczy, im dalej pisze, tym większe problemy, co zwiększa trudność weryfikacji przez programistę. Jeśli dasz się zwieść jego halucynacjom, może to prowadzić do poważnych konsekwencji.

3. Ograniczenia języka naturalnego nie są tak precyzyjne jak kodu. Zawieranie w promptach nazw plików, zmiennych kodu, słów kluczowych kodu, terminologii specjalistycznej itp. znacznie zmniejsza halucynacje Claude Code.

Published in Technology

You Might Also Like

Jak korzystać z technologii chmury obliczeniowej: Kompletny przewodnik po budowie pierwszej infrastruktury chmurowejTechnology

Jak korzystać z technologii chmury obliczeniowej: Kompletny przewodnik po budowie pierwszej infrastruktury chmurowej

Jak korzystać z technologii chmury obliczeniowej: Kompletny przewodnik po budowie pierwszej infrastruktury chmurowej Wpr...

Ostrzeżenie! Twórca Claude Code mówi wprost: za miesiąc bez trybu planowania tytuł inżyniera oprogramowania zniknieTechnology

Ostrzeżenie! Twórca Claude Code mówi wprost: za miesiąc bez trybu planowania tytuł inżyniera oprogramowania zniknie

Ostrzeżenie! Twórca Claude Code mówi wprost: za miesiąc bez trybu planowania tytuł inżyniera oprogramowania zniknie Ost...

2026年 Top 10 深度学习资源推荐Technology

2026年 Top 10 深度学习资源推荐

2026年 Top 10 深度学习资源推荐 随着深度学习在各个领域的迅速发展,越来越多的学习资源和工具涌现出来。本文将为您推荐2026年最值得关注的十个深度学习资源,帮助您在这一领域中快速成长。 1. Coursera Deep Learn...

2026年 Top 10 AI 代理:核心卖点解析Technology

2026年 Top 10 AI 代理:核心卖点解析

2026年 Top 10 AI 代理:核心卖点解析 引言 随着人工智能的快速发展,AI 代理(AI Agents)已成为技术领域的热点话题。越来越多的开发者和企业开始探索如何利用这些智能代理提升工作效率和业务盈利。但在众多的 AI 代理解决...

2026年 Top 10 AI 工具推荐:释放人工智能的真正潜力Technology

2026年 Top 10 AI 工具推荐:释放人工智能的真正潜力

2026年 Top 10 AI 工具推荐:释放人工智能的真正潜力 W dzisiejszych czasach, gdy technologia rozwija się w zawrotnym tempie, sztuczna inteli...

2026年 Top 10 AWS工具和资源推荐Technology

2026年 Top 10 AWS工具和资源推荐

2026年 Top 10 AWS工具和资源推荐 W szybko rozwijającym się obszarze chmury obliczeniowej, Amazon Web Services (AWS) jest liderem,...