Jak uruchomić lokalny model językowy w Obsidianie za pomocą LM Studio i Copilota

Jeśli chcesz pracować z własnym lokalnym modelem językowym w Obsidianie – bez potrzeby wysyłania danych do chmury – ten przewodnik krok po kroku jest dla Ciebie. Pokażę Ci, jak zainstalować i skonfigurować dwa narzędzia: Copilot (plugin do Obsidiana) oraz LM Studio (interfejs do lokalnych LLM-ów). Dzięki temu uzyskasz prywatne, szybkie i elastyczne środowisko AI.

Wymagane narzędzia

Do uruchomienia własnego modelu potrzebujesz:


1. Instalacja i konfiguracja Copilot w Obsidianie

  1. Przejdź do ustawień (ikona trybika).
  2. Wybierz zakładkę Community Plugins.
  3. Wyszukaj Copilot, zainstaluj i włącz plugin.
  4. W ustawieniach pluginu będziemy później definiować modele, ale najpierw musimy je uruchomić lokalnie.

2. Pobranie i uruchomienie modeli w LM Studio

Interfejs LM Studio

Po uruchomieniu zobaczysz:

  • Chat – do testowania modelu bezpośrednio.
  • Developer – do zarządzania uruchomionymi modelami.
  • My Models – Twoje pobrane modele.
  • Discover – katalog dostępnych modeli.

Pobierz model językowy

  1. Przejdź do zakładki Discover.
  2. Wpisz np. llama – to popularna rodzina modeli.
  3. Wybierz wersję np. LLaMA 2 8B, kliknij Download.
  4. Poczekaj na pobranie (model ma ok. 5 GB).
  5. Po pobraniu wróć do zakładki Developer, wybierz model i kliknij Load model.

Pobierz model do embeddingów

Potrzebny będzie także model do przetwarzania bazy wiedzy:

  • Wyszukaj: nomic-embed-text-v1.5
  • Kliknij Download, a następnie Load model.

3. Udostępnienie modeli Obsidianowi

  1. W LM Studio wejdź w Settings.
  2. Upewnij się, że opcja Status: Running jest włączona.
  3. Opcjonalnie: zaznacz Serve on local network, jeśli chcesz korzystać z modelu z innego urządzenia.

4. Konfiguracja Copilota z lokalnymi modelami

W Obsidianie:

  1. Przejdź do ustawień pluginu Copilot.
  2. W zakładce Models kliknij Add custom model.
  3. Wybierz Provider: LM Studio.
  4. Skopiuj nazwę modelu z LM Studio i wklej w pole Model name.
  5. Kliknij Verify – jeśli wszystko działa, dodaj model.

Dodaj osobno oba modele:

  • jeden do rozmów (llama)
  • drugi do indeksowania (nomic-embed-text-v1.5)

5. Indeksacja bazy wiedzy z Obsidiana

  1. W Copilocie ustaw model embeddingów jako domyślny do przetwarzania wiedzy.
  2. Po zatwierdzeniu rozpocznij indeksowanie bazy – pojawi się monit w prawym górnym rogu.
  3. Uwaga: aktualnie plugin nie przetwarza automatycznie PDF-ów ani obrazów – trzeba je skopiować jako tekst do notatek.

6. Rozmowa z modelem

Po indeksacji możesz:

  • Czatować z modelem lokalnie bez wysyłania danych do chmury.
  • Zadawać pytania o swoją bazę wiedzy – model przeszuka notatki i poda konkretne źródła.
  • Tworzyć notatki z odpowiedzi jednym kliknięciem.
  • Tłumaczyć teksty, generować treści, streszczenia itp.

https://youtu.be/qgYPq0QMr-c

Wskazówki i uwagi

  • Im większy model, tym lepsza jakość odpowiedzi, ale większe zużycie RAM/CPU.
  • Lokalny setup zapewnia pełną prywatność.
  • Możesz uruchomić modele na jednym komputerze i korzystać z nich z innych urządzeń w sieci lokalnej.

Podsumowanie

Dzięki Copilotowi i LM Studio możesz przekształcić Obsidiana w lokalne, prywatne środowisko AI. To świetna opcja dla osób, które chcą:

  • pracować offline,
  • chronić swoje dane,
  • tworzyć własne narzędzia oparte na notatkach i wiedzy osobistej.

Masz pytania lub potrzebujesz pomocy?
Napisz komentarz pod filmem lub skontaktuj się ze mną!

Sprawdź również:

Paweł Kińczyk
Paweł Kińczyk
Artykuły: 119

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *