W trzeciej części serii o LM Studio przechodzimy przez kluczowe parametry generowania: temperature, max tokens, top‑k / top‑p / min‑p i repeat penalty. Pokazuję praktyczne presety, kiedy warto ruszać suwakami (a kiedy zostać przy domyślnych), oraz jak jedno zdanie w System Prompcie potrafi realnie podnieść jakość odpowiedzi. Artykuł dla osób, które chcą szybciej wdrażać lokalne…
TL;DR: Jeśli zaczynasz: zostaw domyślne parametry, dodaj porządny System Prompt, zapisuj presety i testuj na branchach. Dopiero potem kręć suwakami: temperature/top‑k/top‑p/min‑p i repeat penalty.
Czym są presety i gdzie je zapisać
W LM Studio możesz zapisać zestaw ustawień jako preset i ładować go jednym kliknięciem. To baza pod powtarzalne testy i spójny workflow.
Po co preset?
- oszczędza czas (nie ustawiasz wszystkiego od nowa),
- ułatwia A/B testy (branch → zmieniasz tylko 1 parametr),
- dzielisz się ustawieniami z zespołem.
Film: LM Studio od zera cz 3: Ustawienia modeli w praktyce (temperature, top‑k/‑p/min‑p, repeat penalty)

System Prompt — mała zmiana, duży efekt
System Prompt to instrukcja nadrzędna: rola, język, ton, format wyjścia. W praktyce jedna, dobrze napisana komenda potrafi radykalnie poprawić strukturę i trafność odpowiedzi.
Wskazówki praktyczne:
- opisuj rolę („Jesteś inżynierem…”, „Jesteś redaktorem SEO…”),
- określ język i styl (np. „po polsku, krótko, technicznie”),
- narzuć format (nagłówki H2/H3, listy, kod, tabelki),
- zdefiniuj granice (bez dygresji, bez wymyślania faktów, cytuj źródła, jeśli bazujesz na plikach),
- dodaj kryteria sukcesu („odpowiedź ≤ 300 słów; kończ checklistą”).
Pro tip: Zacznij od 2–3 zdań. Za długie system prompty potrafią „zjadać” kontekst i spowalniać generowanie.
Kiedy nie ruszać parametrów (i dlaczego)
Domyślne ustawienia w LM Studio są dobrane tak, by bezpiecznie działać na większości modeli i zadań.
Zostaw domyślne, jeżeli:
- dopiero zaczynasz,
- prowadzisz zwykłą rozmowę/Q&A,
- priorytetem jest spójność i przewidywalność.
Kręć suwakami, jeżeli:
- potrzebujesz kreatywności (burza mózgów, copy, metafory),
- walczysz z powtórkami albo wodolejstwem,
- chcesz skrócić odpowiedzi i oszczędzić kontekst.
Temperature i limit długości odpowiedzi
Temperature steruje losowością wyboru następnego tokena.
- Niżej (0.1–0.3) → stabilnie, technicznie, mało zaskoczeń.
- Środek (0.4–0.7) → balans faktów i świeżości.
- Wyżej (0.8–1.0) → polot, ryzyko „majaczeń”.
Max tokens / limit długości przycina odpowiedź. Używaj do wymuszania zwięzłości, oszczędzania VRAM/kontekstu i szybszego testowania hipotez.
Top‑k, Top‑p i Min‑p — jak sterować „słownikiem” modelu
Top‑k: zawęża pulę rozważanych tokenów do k najbardziej prawdopodobnych.
Top‑p (nucleus): wybiera z najmniejszego zbioru tokenów, których łączne prawdopodobieństwo ≥ p.
Min‑p: odcina tokeny poniżej progu p_min (czyści „ogon”).
Praktyczne ustawki:
- Precyzyjny Q&A / dokumentacja → lower temperature, mniejsze top‑k, top‑p 0.8–0.9, min‑p ↑.
- Kreatywny copy / pomysły → temperature 0.7–0.9, top‑k ↑, top‑p 0.9–0.95, min‑p umiarkowane.
Pamiętaj: skrajne wartości równocześnie (wysokie T + wysokie top‑k/top‑p) = duże ryzyko chaosu.
Repeat penalty — koniec z powtórkami
Podniesienie repeat penalty zniechęca model do powtarzania tych samych fraz. Przydaje się, gdy widzisz „zapętlenia” albo długie parafrazy bez treści. Zaczynaj od lekkich zmian i testuj na branchach.
Zaawansowane: structure/draft — kiedy nie zawracać sobie głowy
Opcje związane ze structure/draft dotyczą bardziej złożonych strategii generowania i nie są potrzebne w codziennej pracy. Jeśli nie wiesz, po co je zmieniać — zostaw domyślne.
Funkcje odpowiedzi w LM Studio
- Regenerate – generuje ponownie całą odpowiedź.
- Continue assistant message – wymusza dokończenie.
- Branch chat after this message – rozgałęzia wątek (super do A/B parametrów).
- Copy / Edit / Delete – kopiowanie/edycja/usuwanie; edycja zapisuje Twoje uzupełnienia w kontekście.
- Notatki do konwersacji – dodajesz meta‑informacje do wątku.
Najczęstsze błędy
Błędy:
- „Kręcenie” wszystkimi suwakami na raz.
- Złe pliki w kontekście (np. PDF bez OCR) → model „nie widzi” treści.
- Brak System Promptu przy zadaniach technicznych.
Przykładowe System Prompty
Inżynier / język prosty:
„Jesteś inżynierem. Odpowiadasz po polsku, prosto i technicznie. Struktura: nagłówki H2/H3, krótkie akapity, wypunktowania, na końcu checklist.”
Redaktor SEO:
„Jesteś redaktorem SEO. Tworzysz treść zgodnie z E‑E‑A‑T, nagłówki H2/H3, meta‑title ≤ 60 znaków, meta‑description 150–160 znaków, sekcja FAQ z pytaniami w H3.”
Analityk danych:
„Jesteś analitykiem danych. Odpowiedzi zawierają kroki, wzory, przykłady. Jeśli brak danych — wskaż założenia i ograniczenia.”
FAQ: krótkie odpowiedzi na częste pytania
Czy podniesienie temperature zawsze zwiększa kreatywność?
Zwykle tak, ale rośnie też ryzyko „majaczeń”. Równoważ to niższym top‑p/min‑p.
Top‑k i top‑p razem?
Można, ale zmieniaj jeden parametr naraz i testuj różnice.
Kiedy podbijać repeat penalty?
Gdy pojawiają się powtórki/para‑frazy; podnoś stopniowo.
Czy min‑p jest konieczny?
Nie zawsze. Pomaga przy „śmieceniu” w ogonie rozkładu.
Defaulty są „najlepsze”?
Są bezpieczne. „Najlepsze” = dopasowane do celu. Zacznij od defaultów + System Prompt.
Podsumowanie + materiały
Największą dźwignią jest System Prompt + presety. Suwaki dekodowania dopieszczaj dopiero, gdy rozumiesz cel: precyzja vs kreatywność. Jeśli coś się „rozjeżdża”, wróć do domyślnych i testuj na branchach.
Zasoby:
- Twoja seria: „LM Studio — krok po kroku” (dodaj linki do cz. 1 i 2)
Chcesz przyspieszyć wdrożenie AI? Napisz do mnie — ułożymy plan, który oszczędzi Ci czas, nerwy i pieniądze.
Sprawdź również:
- LM Studio – optymalizacja lokalnych LLM. Ustawienia, które naprawdę mają znaczenie
- Gotowe prompty AI dla inżynierów, które realnie przyspieszają pracę
- AI w Thunderbirdzie: automatyzacja maili, odpowiedzi i podsumowań z lokalnym LLM
- Thunderbird w 30 minut – jak ogarnąć chaos w mailach i odzyskać kontrolę
- Automatyczne generowanie kart pomieszczeń w Revit za pomocą Dynamo

