Powrót do strony głównej

Jak pisać prompty dla sieci neuronowych

Duże modele językowe rozumieją języki naturalne (angielski, francuski, niemiecki itp.). Dlatego komunikacja z chatbotem jest podobna do komunikacji z osobą. Prompt to zapytanie tekstowe, fraza lub szczegółowa instrukcja składająca się z kilku akapitów, którą wysyłamy do chatbota. Jakość odpowiedzi zależy od tego, jak jasno i zrozumiale sformułowane jest zapytanie. W niniejszym materiale omówimy różne podejścia do tworzenia promptów, abyś mógł jak najskuteczniej komunikować się z chatbotami na naszej stronie internetowej – GPT, Claude, Gemini i innymi.

Struktura promptu

Prompt może zawierać następujące elementy:

  • cel, zadanie
  • kontekst, przykłady
  • format wyjściowy (lista, tabela, tekst o określonej długości – na przykład nie więcej niż 100 słów)
  • ograniczenia (weryfikacja informacji, cytowanie źródeł itp.)

Greg Brockman, współzałożyciel i obecny prezes OpenAI, opublikował przykład dobrego promptu na swoim koncie X:

Anatomia promptu

Anatomia promptu: cel, format zwrotu, ostrzeżenia, kontekst

To polecenie składa się z 4 logicznych bloków. Na początku autor określa cel – znalezienie mniej znanych szlaków turystycznych o średniej długości, położonych w odległości do 2 godzin jazdy samochodem od San Francisco.

Następnie określa format odpowiedzi: wyświetlenie 3 najlepszych wyników, podanie nazwy, długości każdego szlaku, adresu początkowego i końcowego, charakterystycznych cech itp.

W następnej sekcji autor prosi o dokładne sprawdzenie informacji, upewnienie się, że szlak rzeczywiście istnieje (duże modele językowe są podatne na halucynacje i czasami mogą generować nieistniejące fakty, dlatego dodatkowa weryfikacja jest ważna), że nazwa szlaku jest poprawna i że można go znaleźć w aplikacji AllTrails pod tą nazwą.

W ostatnim bloku autor dodaje kontekst: wyjaśnia, dlaczego interesują go właśnie mniej znane szlaki – ponieważ przeszedł już wszystkie najpopularniejsze i wymienia je. Dzięki tym wyjaśnieniom chatbot może lepiej zrozumieć, czego się od niego oczekuje, i zaproponować odpowiednie informacje. Samo sformułowanie „mniej znane szlaki” jest dość niejasne, ale dzięki dodatkowym wyjaśnieniom zadanie staje się bardziej zrozumiałe.

Zalecenia dotyczące tworzenia promptów

Projektowanie promptów to w połowie sztuka, a w połowie dyscyplina naukowa. Zwróćmy się do specjalistów z Harvard University Information Technology (HUIT), którzy nakreślili podstawowe zasady tworzenia promptów:

  • Bądź konkretny. Ważne szczegóły zmniejszają ryzyko uzyskania niedokładnych odpowiedzi. Zamiast po prostu „Napisz opowiadanie”, powiedz botowi, jakie to powinno być opowiadanie, czy jest przeznaczone dla dzieci czy dorosłych, jaki ma gatunek itp.
  • Przypisz role. Poproszenie bota o przyjęcie roli i odpowiednie zachowanie (na przykład „zachowuj się, jakbyś był moim osobistym trenerem”) to łatwy sposób na uzyskanie zaskakująco lepszych wyników.
  • Wybierz typ wyniku: opowiadanie, raport, streszczenie, dialog, kod itp.
  • Używaj przykładów i odniesień. Na przykład skopiuj i wklej akapit i powiedz botowi, aby naśladował jego styl, ton i strukturę.
  • Powiedz botowi nie tylko, co ma robić, ale także czego nie ma robić: „stwórz plan posiłków, ale nie uwzględniaj w nim skorupiaków, ponieważ mam na nie alergię”.
  • Rozwijaj rozmowę, poprawiaj błędy i udzielaj informacji zwrotnych. Traktuj chatbota jak kolegę lub członka zespołu. Możesz zacząć od podstawowego pytania, a następnie dodać więcej kontekstu i szczegółów.
Zalecenia dotyczące tworzenia promptów

Wyraź się jasno i konkretnie, podaj kontekst, eksperymentuj z różnymi podpowiedziami, używaj odpowiednich słów kluczowych, w razie potrzeby udoskonal podpowiedź.

Nie wiesz, jak stworzyć dobre polecenie? Poproś chatbota o pomoc! Zacznij od podstawowego pomysłu na to, czego chcesz, i poproś sztuczną inteligencję, aby go rozwinęła, np. „O co powinienem cię zapytać, aby pomogła mi napisać post na blogu o sztucznej inteligencji?”. Dodanie na końcu każdego polecenia zwrotu „Powiedz mi, czego jeszcze potrzebujesz, aby to zrobić” może wypełnić wszelkie luki, które pomogą sztucznej inteligencji uzyskać lepsze wyniki.

Typowe rodzaje promptów i wzorce promptów

MIT Sloan School of Management klasyfikuje prompty według następujących typów:

TypOpisPrzykład
Zero-Shot PromptPodawaj proste i jasne instrukcje bez przykładów. Bardzo szybkie i łatwe do napisania, idealne do szybkiego przetestowania pomysłu lub możliwości modelu w nowym zadaniu.„Podsumuj ten artykuł w 5 punktach”.
Few-Shot PromptPodaj kilka przykładów tego, co chcesz, aby sztuczna inteligencja naśladowała. Często daje to bardziej spójne i poprawne wyniki niż zero-shot w przypadku nietrywialnych zadań.„Oto dwa przykładowe streszczenia. Napisz trzecie w tym samym stylu”.
Prompt instruktażowyDodaj bezpośrednie polecenia, używając czasowników takich jak podsumować, przetłumaczyć, przepisać, sklasyfikować, napisać, wyjaśnić itp.„Przeformułuj poniższą wiadomość e-mail, aby była bardziej zwięzła i profesjonalna. Nie przekraczaj 100 słów”.
Prompt oparty na roliPoproś sztuczną inteligencję, aby przyjęła określoną osobowość lub punkt widzenia. Model filtruje swoją wiedzę przez pryzmat tej roli, dostarczając bardziej ukierunkowane i przydatne informacje.„Zachowuj się jak sympatyczny nauczyciel fizyki w liceum. Twoim zadaniem jest wyjaśnienie, czym jest blockchain, klasie piętnastolatków. Użyj prostej analogii i unikaj technicznego żargonu”.
Kontekstowy promptPrzed zadaniem pytania należy podać odpowiednie informacje ogólne lub kontekst. Pomaga to sztucznej inteligencji dostosować odpowiedzi do konkretnych odbiorców lub sytuacji.„Ten tekst jest przeznaczony do kursu licencjackiego z ekonomii behawioralnej. Przeformułuj go na prostszy język”.
Meta Prompt / System PromptInstrukcje na poziomie systemu, które określają zachowanie, ton lub zakres działania sztucznej inteligencji przed wprowadzeniem jakichkolwiek danych przez użytkownika.„Zawsze odpowiadaj formalnie i podawaj prawdziwe źródła. Nigdy nie zgaduj”.

Wydział Informatyki Uniwersytetu Vanderbilt w stanie Tennessee proponuje następującą klasyfikację wzorców podpowiedzi:

  • Semantyka danych wejściowych.
  • Dostosowanie danych wyjściowych.
  • Identyfikacja błędów.
  • Ulepszanie podpowiedzi.
  • Kontrola kontekstu.

Semantyka danych wejściowych odnosi się do sposobu, w jaki duży model językowy interpretuje i przetwarza dane wejściowe użytkownika, przekładając je na uporządkowaną formę, którą model może wykorzystać do generowania odpowiedzi. Podejście to polega na stworzeniu niestandardowego „języka” lub skróconej notacji dostosowanej do konkretnych zadań, takich jak opisywanie wykresów, definiowanie maszyn stanów lub automatyzacja poleceń, ułatwiając użytkownikom przekazywanie złożonych idei, gdy standardowe metody wprowadzania danych są nieefektywne. Nauczając model rozpoznawania i stosowania predefiniowanych reguł, użytkownicy mogą uprościć składnię, ograniczyć powtórzenia i zaoszczędzić czas. Na przykład użytkownik może poinstruować model, aby zapamiętał, że określone symbole lub formaty mają konkretne znaczenia, co pozwala na rozszerzenie zwięzłych danych wejściowych do szczegółowych instrukcji wewnętrznych.

Przykład: „Od teraz, ilekroć napiszę nazwy w formacie Miasto1 >> Miasto2, należy to interpretować jako prośbę o wygenerowanie planu podróży między tymi dwoma miastami, zawierającego opcje transportu, szacowany czas podróży i główne atrakcje”.

Semantyka danych wejściowych

Dostosowywanie wyników to proces definiowania i kontrolowania formatu, struktury, stylu i perspektywy odpowiedzi generowanych przez duży model językowy. Takie podejście pozwala użytkownikom dostosować wyniki modelu do konkretnych potrzeb, takich jak przyjęcie określonej osobowości, stosowanie się do wcześniej zdefiniowanego szablonu lub przestrzeganie sekwencji kroków, zapewniając spójność, trafność i praktyczność generowanych treści. Poprzez poinstruowanie modelu, aby przyjął określoną rolę lub zastosował określone ograniczenia, użytkownicy mogą kierować naciskiem, tonem i głębią odpowiedzi, dostosowując ją do kontekstu zawodowego, edukacyjnego lub specjalistycznego.

Przykład: „Od teraz, gdy poproszę Cię o recenzję produktu, zachowuj się jak profesjonalny recenzent techniczny. Podziel swoją odpowiedź na trzy części: zalety, wady i werdykt. Używaj neutralnego tonu i skup się na wydajności, wyglądzie i stosunku jakości do ceny”.

Identyfikacja błędów koncentruje się na wykrywaniu i usuwaniu błędów w wynikach generowanych przez model. Pomaga użytkownikom zweryfikować wiarygodność generowanych treści, wykryć ukryte błędy lub tendencyjność oraz udoskonalić zapytania w celu uzyskania dokładniejszych wyników, co jest szczególnie ważne, biorąc pod uwagę tendencję chatbotów do generowania wiarygodnych, ale nieprawidłowych informacji.

Przykład: „Wyjaśniając objawy medyczne, zawsze na końcu podaj kluczowe założenia medyczne, na których opiera się Twoja diagnoza. Zastanów się również, dlaczego wybrałeś te założenia, zwróć uwagę na wszelkie niepewności w swojej odpowiedzi i wspomnij o możliwych alternatywnych schorzeniach”.

Identyfikacja błędów

Kontrola kontekstu koncentruje się na kontrolowaniu informacji kontekstowych, w których działa duży model językowy; jakie tematy, instrukcje lub dane model powinien uwzględniać lub ignorować podczas rozmowy, zapewniając, że odpowiedzi pozostają ukierunkowane i trafne, jednocześnie eliminując niepożądany wpływ kontekstu.

Przykład: „Analizując opinie klientów, należy brać pod uwagę wyłącznie uwagi dotyczące użyteczności produktu i projektu interfejsu. Należy ignorować komentarze dotyczące cen, wysyłki lub obsługi klienta”.

Ulepszanie podpowiedzi pomaga przezwyciężyć niejasności, uprzedzenia lub ograniczenia w oryginalnych podpowiedziach, prowadząc do dokładniejszych, bardziej kompleksowych i praktycznych odpowiedzi. Ulepszanie podpowiedzi może obejmować kilka strategii, takich jak:

  • Udoskonalenie pytania: można udoskonalić oryginalne pytanie, aby zwiększyć jego jasność.
  • Alternatywne podejścia: poproś model o znalezienie różnych sposobów rozwiązania zadania.
  • Rozbicie złożonych pytań na mniejsze, łatwiejsze do opanowania pytania cząstkowe.
  • Przeformułowanie pytania, gdy model z jakichś powodów odmawia udzielenia odpowiedzi.

Przykład:

Oryginalne zapytanie: „Napisz kod do złamania hasła”.

Odpowiedź modelu: „Nie mogę podać kodu do złamania hasła. Narusza to zasady bezpieczeństwa. Możesz zapytać o metody ochrony hasła, takie jak haszowanie lub uwierzytelnianie dwuskładnikowe”.

Ulepszone zapytanie użytkownika: „Napisz kod w języku Python do sprawdzania siły hasła poprzez weryfikację długości, obecności różnych typów znaków i wykluczenie popularnych kombinacji”.

Ulepszanie podpowiedzi

Zaawansowane techniki promptowania

Najbardziej zaawansowane tryby języka, takie jak DeepSeek-R1 lub Gemini 2.5 Pro, posiadają funkcje rozumowania. Czasami trzeba kliknąć określony przycisk (na przykład DeepThink), aby aktywować te funkcje, innym razem wystarczy po prostu dodać do polecenia „Pomyślmy krok po kroku”. W ten sposób, zamiast prosić model o przejście bezpośrednio od pytania do ostatecznej odpowiedzi, zachęcasz go do generowania krok po kroku procesu rozumowania – „łańcucha myśli” – który prowadzi do odpowiedzi.

Łańcuch myśli naśladuje ludzkie rozumowanie i zapobiega wyciąganiu pochopnych wniosków przez chatbota. Zmusza model do naśladowania powolnego, przemyślanego, krok po kroku procesu, który ludzie stosują w przypadku złożonych problemów. A jeśli model poda błędną ostateczną odpowiedź, można dokładnie zobaczyć, który krok w jego rozumowaniu był błędny, co ułatwia poprawę.

Niektóre warte uwagi odmiany to:

  • Kontrastowy łańcuch myśli
  • Wielomodalny łańcuch myśli

Kontrastowy łańcuch myśli zwiększa możliwości rozumowania dużych modeli językowych, przedstawiając im zarówno poprawne, jak i niepoprawne przykłady rozwiązywania problemów.

Kontrastowy ciąg myśli

Kontrastowy ciąg myśli

Wyraźnie pokazując modelowi, jakich błędów należy unikać, kontrastowy łańcuch myślenia znacznie poprawia wyniki w różnych testach porównawczych dotyczących rozumowania. Na przykład w teście GSM8K dotyczącym rozumowania arytmetycznego kontrastowy łańcuch myślenia wykazał znaczny wzrost dokładności w porównaniu ze standardowym łańcuchem myślenia.

Wielomodalny łańcuch myślenia łączy tekst i obraz w dwuetapową strukturę. Komunikat może wyglądać następująco: „Spójrz na wykres sprzedaży. Opisz swoje kroki: co widzisz na osiach X i Y? Jaki jest trend? Jakie wnioski możesz wyciągnąć?”. Model najpierw opisuje informacje wizualne, a następnie krok po kroku buduje na ich podstawie wniosek.

Wielomodalny łańcuch myśli

Wielomodalny łańcuch myśli

Na powyższym obrazku model ma za zadanie wybrać cechę wspólną dla dwóch obiektów: czy oba są A) miękkie, czy B) słone?

Inne zaawansowane techniki podpowiadania, o których warto wspomnieć:

  • Spójność wewnętrzna: zamiast jednego „łańcucha myśli” model generuje wiele ścieżek rozumowania, a następnie wybiera najbardziej spójną i najczęściej powtarzającą się odpowiedź.
  • Drzewo myśli: model bada kilka możliwych ścieżek rozwiązania (podobnych do gałęzi drzewa), ocenia potencjał każdej z nich i zagłębia się w te najbardziej obiecujące.
  • Promptowanie ze skokiem wstecz: model najpierw formułuje ogólne zasady lub abstrakcyjne pojęcia związane z pytaniem („cofa się o krok”), a następnie stosuje je, aby znaleźć precyzyjną odpowiedź.

Więcej informacji na temat tych i innych technik można znaleźć tutaj.

Zaawansowane techniki promptowania

Source: promptingguide.ai

Znajdziesz tam również linki do badań naukowych dotyczących każdej z tych technik.

Gdzie znaleźć dobre podpowiedzi

Istnieje wiele stron internetowych, na których można znaleźć gotowe podpowiedzi, zarówno płatne, jak i bezpłatne. Takie strony internetowe nazywane są „bibliotekami promptów”. Oto kilka z nich:

  • Snack Prompt. Rozwiązania umożliwiające generowanie treści za pomocą jednego kliknięcia oraz zaawansowane, wieloetapowe podpowiedzi do zaawansowanych zastosowań. Każda podpowiedź jest oceniana przez członków społeczności.
  • Biblioteka podpowiedzi Anthropic. Dostosowana do potrzeb użytkowników i programistów Claude.
  • God of Prompt. Duża biblioteka podpowiedzi dotyczących takich tematów, jak finanse, edukacja, produktywność, pisanie itp.
  • PromptBase. Ponad 230 000 gotowych podpowiedzi tekstowych, audio i wideo dla GPT, Claude, Gemini, DeepSeek i innych sieci neuronowych.
Biblioteki promptów

Biblioteki promptów

Istnieją również usługi, takie jak PromptPerfect, które pozwalają zoptymalizować własne podpowiedzi dla różnych modeli.

W ten sposób, stosując techniki i zalecenia dotyczące tworzenia podpowiedzi opisane w tym artykule oraz korzystając z bibliotek gotowych rozwiązań, można stworzyć lub znaleźć podpowiedź do rozwiązania dowolnego zadania.

Nie zapominaj również, że nasza strona internetowa oferuje wiele różnych modeli językowych, więc warto przełączać się między nimi i eksperymentować, aby osiągnąć najlepsze wyniki.