Jeśli chcesz pracować z własnym lokalnym modelem językowym w Obsidianie – bez potrzeby wysyłania danych do chmury – ten przewodnik krok po kroku jest dla Ciebie. Pokażę Ci, jak zainstalować i skonfigurować dwa narzędzia: Copilot (plugin do Obsidiana) oraz LM Studio (interfejs do lokalnych LLM-ów). Dzięki temu uzyskasz prywatne, szybkie i elastyczne środowisko AI.

Wymagane narzędzia
Do uruchomienia własnego modelu potrzebujesz:
- Obsidian z pluginem Copilot
- LM Studio: narzędzie do uruchamiania modeli językowych lokalnie
Pobierz z oficjalnej strony
1. Instalacja i konfiguracja Copilot w Obsidianie
- Przejdź do ustawień (ikona trybika).
- Wybierz zakładkę Community Plugins.
- Wyszukaj Copilot, zainstaluj i włącz plugin.
- W ustawieniach pluginu będziemy później definiować modele, ale najpierw musimy je uruchomić lokalnie.
2. Pobranie i uruchomienie modeli w LM Studio
Interfejs LM Studio
Po uruchomieniu zobaczysz:
- Chat – do testowania modelu bezpośrednio.
- Developer – do zarządzania uruchomionymi modelami.
- My Models – Twoje pobrane modele.
- Discover – katalog dostępnych modeli.
Pobierz model językowy
- Przejdź do zakładki Discover.
- Wpisz np.
llama– to popularna rodzina modeli. - Wybierz wersję np. LLaMA 2 8B, kliknij Download.
- Poczekaj na pobranie (model ma ok. 5 GB).
- Po pobraniu wróć do zakładki Developer, wybierz model i kliknij Load model.
Pobierz model do embeddingów
Potrzebny będzie także model do przetwarzania bazy wiedzy:
- Wyszukaj:
nomic-embed-text-v1.5 - Kliknij Download, a następnie Load model.
3. Udostępnienie modeli Obsidianowi
- W LM Studio wejdź w Settings.
- Upewnij się, że opcja Status: Running jest włączona.
- Opcjonalnie: zaznacz Serve on local network, jeśli chcesz korzystać z modelu z innego urządzenia.
4. Konfiguracja Copilota z lokalnymi modelami
W Obsidianie:
- Przejdź do ustawień pluginu Copilot.
- W zakładce Models kliknij Add custom model.
- Wybierz Provider: LM Studio.
- Skopiuj nazwę modelu z LM Studio i wklej w pole Model name.
- Kliknij Verify – jeśli wszystko działa, dodaj model.
Dodaj osobno oba modele:
- jeden do rozmów (
llama) - drugi do indeksowania (
nomic-embed-text-v1.5)
5. Indeksacja bazy wiedzy z Obsidiana
- W Copilocie ustaw model embeddingów jako domyślny do przetwarzania wiedzy.
- Po zatwierdzeniu rozpocznij indeksowanie bazy – pojawi się monit w prawym górnym rogu.
- Uwaga: aktualnie plugin nie przetwarza automatycznie PDF-ów ani obrazów – trzeba je skopiować jako tekst do notatek.
6. Rozmowa z modelem
Po indeksacji możesz:
- Czatować z modelem lokalnie bez wysyłania danych do chmury.
- Zadawać pytania o swoją bazę wiedzy – model przeszuka notatki i poda konkretne źródła.
- Tworzyć notatki z odpowiedzi jednym kliknięciem.
- Tłumaczyć teksty, generować treści, streszczenia itp.
Wskazówki i uwagi
- Im większy model, tym lepsza jakość odpowiedzi, ale większe zużycie RAM/CPU.
- Lokalny setup zapewnia pełną prywatność.
- Możesz uruchomić modele na jednym komputerze i korzystać z nich z innych urządzeń w sieci lokalnej.
Podsumowanie
Dzięki Copilotowi i LM Studio możesz przekształcić Obsidiana w lokalne, prywatne środowisko AI. To świetna opcja dla osób, które chcą:
- pracować offline,
- chronić swoje dane,
- tworzyć własne narzędzia oparte na notatkach i wiedzy osobistej.
Masz pytania lub potrzebujesz pomocy?
Napisz komentarz pod filmem lub skontaktuj się ze mną!
Sprawdź również:
- LM Studio – optymalizacja lokalnych LLM. Ustawienia, które naprawdę mają znaczenie
- Gotowe prompty AI dla inżynierów, które realnie przyspieszają pracę
- AI w Thunderbirdzie: automatyzacja maili, odpowiedzi i podsumowań z lokalnym LLM
- Thunderbird w 30 minut – jak ogarnąć chaos w mailach i odzyskać kontrolę
- Automatyczne generowanie kart pomieszczeń w Revit za pomocą Dynamo

