Kod

LM Studio: Instalowanie, konfigurowanie i uruchamianie chatbota na komputerze

LM Studio: Instalowanie, konfigurowanie i uruchamianie chatbota na komputerze

Naucz się nowych umiejętności bez wydawania pieniędzy: „Praktyczny kurs sieci neuronowych”

Dowiedz się więcej

LM Studio to wieloplatformowe oprogramowanie, które pozwala uruchamiać modele językowe bezpośrednio na komputerze. Wygląd aplikacji jest podobny do ChatGPT: oferuje ona również czat do interakcji ze sztuczną inteligencją oraz możliwość przesyłania plików do analizy. Główną różnicą jest jednak to, że wszystkie żądania są przetwarzane lokalnie, więc Sam Altman nie będzie mógł zobaczyć, nad czym pracujesz.

W tym artykule omówimy proces instalacji LM Studio, wskażemy, gdzie można pobrać niezbędne oprogramowanie i opiszemy, jak uruchamiać sieci neuronowe lokalnie. Dodatkowo przetestujemy jeden z modeli w różnych scenariuszach i zapoznamy się z kilkoma alternatywnymi usługami.

Spis treści

  • Analiza cech modeli lokalnych.
  • Proces instalacji LM Studio i późniejsza weryfikacja systemu.
  • Rozpoczęcie integracji pierwszej sieci neuronowej.
  • Jesteśmy w trakcie poszukiwania najskuteczniejszych modeli językowych dla LM Studio.
  • Badanie możliwości LM Studio w kontekście typowych codziennych zadań.
  • Rozważmy różne opcje, które mogą zastąpić LM Studio.

Badanie cech modeli lokalnych

Główną zaletą lokalnych modeli językowych jest poufność. Wszystkie informacje są przechowywane bezpośrednio na Twoim urządzeniu i nie są przesyłane do zasobów stron trzecich. Jest to szczególnie istotne w przypadku pracy z danymi wrażliwymi, takimi jak analiza sprawozdań finansowych przedsiębiorstw, przetwarzanie dokumentacji medycznej czy sporządzanie dokumentów prawnych objętych obowiązkiem zachowania poufności.

Inne zalety to:

  • Dostosowanie do konkretnych zadań. Model lokalny można dostosować do indywidualnych potrzeb: można zintegrować bazę wiedzy, pobrać dokumenty firmowe lub nauczyć go specjalistycznej terminologii. Pozwoli to na stworzenie asystenta, który będzie lepiej rozumiał kontekst pracy i udzielał trafniejszych odpowiedzi.
  • Swoboda komunikacji. Wszystkie sieci neuronowe w chmurze mają pewne tematy, które podlegają ograniczeniom dyskusji. Na przykład DeepSeek starannie unika dyskusji o Tajwanie i wydarzeniach na placu Tian’anmen w 1989 roku, podczas gdy ChatGPT często odmawia udzielania porad dotyczących medycyny, psychologii i finansów. W większości modeli lokalnych takie ograniczenia można łatwo znieść.
  • Praca bez dostępu do internetu jest możliwa dzięki lokalnym sieciom neuronowym. Zapewniają one pomoc w odległych regionach lub sytuacjach z przerywanym połączeniem — czy to podczas lotu, na daczy bez Wi-Fi, czy w obszarach o słabym sygnale.
  • Oszczędność kosztów. Modele lokalne nie wymagają płatnej subskrypcji i pozwalają na przetwarzanie dowolnej liczby żądań bez ograniczeń. Co więcej, wszystko działa bez opóźnień typowych dla darmowych usług w chmurze.

Kluczową wadą jest znaczna zależność od zasobów obliczeniowych. Na przykład praca z modelami zawierającymi 70 miliardów parametrów wymaga co najmniej 64 GB pamięci RAM i karty graficznej z dużą ilością pamięci wideo. Nawet 32 ​​GB pamięci RAM może nie wystarczyć do lokalnego wdrożenia sieci neuronowych tego samego kalibru co ChatGPT, powodując, że takie modele działają wolno lub w ogóle się nie uruchamiają.

Co więcej, lokalne sieci neuronowe nie mają dostępu do internetu. Oznacza to, że nie są w stanie znaleźć świeżych informacji i, pozbawieni aktualizacji, mogą wymyślać fakty lub opierać się na nieaktualnych danych.

Przeczytaj także:

Kandinsky, GigaChat i podobne projekty: zasady działania multimodalnych sieci neuronowych

Proces instalacji LM Studio i diagnostyka systemu

Przejdź do lmstudio.ai i kliknij przycisk „Pobierz”. Zainstalujemy LM Studio na MacBooku Pro wyposażonym w procesor M1 Pro i 16 GB pamięci RAM.

Jeśli Twój system operacyjny nie zostanie automatycznie wykryty na stronie głównej witryny, przejdź do sekcji „Pobierz”. Tam wybierz żądany system operacyjny, określ architekturę procesora i pobierz program.

Zrzut ekranu: LM Studio / Skillbox Media

Następnie otwórz pobrany plik i zainstaluj go tak, jak każdy inny program. W systemie macOS należy przeciągnąć ikonę LM Studio do folderu Aplikacje, natomiast użytkownicy systemu Windows powinni postępować zgodnie z instrukcjami kreatora instalacji.

Po pomyślnym uruchomieniu aplikacji zobaczysz ekran główny, który przypomina interfejsy usług takich jak ChatGPT, DeepSeek, Grok i podobnych. Na środku ekranu zobaczysz małego fioletowego robota z napisem LM STUDIO, a pod nim puste pole z napisem „Wyślij wiadomość do modelu…”. To tutaj wpisz swoje żądania do modelu.

Zrzut ekranu: LM Studio / Skillbox Media

Jeśli jednak LM Studio nie uruchamia się, najprawdopodobniej Twoje urządzenie nie spełnia niezbędnych wymagań systemowych:

Kilka słów o wymaganiach systemowych. Ostatnio przygotowywaliśmy materiał o lokalnych sieciach neuronowych i testowaliśmy instalację LM Studio na MacBooku z procesorem Intel oraz na Linux Mint. Na MacBooku aplikacja działała pomimo braku oficjalnego wsparcia. Natomiast na Linuksie instalacja przebiegła bezproblemowo, ale program nie uruchomił się. Przyczyny tego zjawiska pozostają niejasne.

Uruchamiamy naszą pierwszą sieć neuronową

Po pierwszym uruchomieniu LM Studio zauważysz, że jest to jedynie interfejs bez zintegrowanych modeli sieci neuronowych. Jeśli spróbujesz wpisać zapytanie w czacie zaraz po instalacji, nie otrzymasz żadnych wyników. Aby rozpocząć korzystanie z aplikacji, kliknij ikonę wyszukiwania znajdującą się w lewym panelu – zostaniesz przekierowany do sekcji „Odkryj”. Tam będziesz mógł przejrzeć listę dostępnych modeli open source i wybrać ten, który chcesz pobrać. W zasadzie jest to swego rodzaju rynek sieci neuronowych.

Sekcja Discover w LM Studio Zrzut ekranu: LM Studio / Skillbox Media

Jako przykład rozważmy Qwen3 4B Thinking 2507 — mały model językowy zdolny do rozumowanie, opracowane przez zespół Qwen. Ten model obsługuje konteksty do 256 000 tokenów i idealnie nadaje się do różnorodnych codziennych zadań, takich jak pisanie i edycja tekstu, programowanie, wyjaśnianie rozwiązań i odpowiadanie na pytania. Wymaga 4 GB pamięci RAM i 3 GB wolnego miejsca na dysku twardym. Wyszukaj Qwen3-4b-thinking-2507. Jeśli używasz systemu macOS, wybierz format MLX z dostępnych wersji, a w przypadku innych systemów operacyjnych wybierz GGUF. Następnie kliknij przycisk Pobierz, poczekaj na zakończenie pobierania, a następnie wybierz opcję Użyj w nowym czacie.

Instalowanie lokalnej sieci neuronowej dla systemu macOS w formacie MLX Zrzut ekranu: LM Studio / Skillbox Media

Następnie pojawi się okno czatu, w którym będziesz mógł wpisać Twoje zapytanie dotyczące sieci neuronowej. Wdrożyliśmy model wnioskowania, który przed wygenerowaniem odpowiedzi przeprowadzi krótką analizę Twojego pytania i wybierze najodpowiedniejszą opcję. Czat wyświetli również sekwencję wnioskowania, pozwalając Ci zobaczyć, dlaczego sieć neuronowa doszła do wniosku lub gdzie mogła popełnić błędy. Pamiętaj, że szybkość odpowiedzi zależy od możliwości Twojego komputera. Na przykład w systemie Windows, oprócz wystarczającej ilości pamięci RAM, zaleca się posiadanie wydajnej karty graficznej. Wynika to z faktu, że LM Studio wykorzysta ją do przetworzenia niektórych warstw modelu, co przyspieszy generowanie. Jeśli nie ma karty graficznej lub jej pamięć jest niewystarczająca, całe obciążenie zostanie przeniesione na procesor, co doprowadzi do spowolnienia.

Przykład odpowiedzi lokalnego modelu Qwen3 4B Thinking 2507 w LM Studio Zrzut ekranu: LM Studio / Skillbox Media

Oprócz funkcji wyszukiwania, na lewym pasku bocznym znajdują się ikony folderu i terminala. Kliknięcie ikony folderu przeniesie Cię do sekcji Moje modele, w której wyświetlane są wszystkie modele językowe zapisane na Twoim urządzeniu. Po wybraniu dowolnego modelu możesz wyświetlić nazwę programisty, liczbę parametrów, typ kwantyzacji i rozmiar pliku. Jeśli któryś z modeli nie jest już istotny, możesz go łatwo usunąć z tej sekcji.

Moja sekcja modeli w LM Studio Zrzut ekranu: LM Studio / Skillbox Media

Ikona terminala otwiera menu deweloperskie, w którym możesz wyświetlić parametry aktywnego modelu, wyświetlić logi i uruchomić serwer, aby zintegrować sieć neuronowa z innymi aplikacjami. Ta sekcja zawiera również ustawienia modelu: możesz zdefiniować monit systemowy, dostosować proces wnioskowania i zmienić długość kontekstu.

Sekcja programisty w LM Studio Zrzut ekranu: LM Studio / Skillbox Media

Znajdowanie idealnych modeli językowych dla LM Studio

W LM Studio możesz pracować z różnymi modelami językowymi. Poniżej znajdziesz kilka popularnych opcji odpowiednich do różnych sytuacji:

  • gpt-oss-20b to model open source opracowany przez OpenAI, zawierający 20 miliardów parametrów. Działa na standardowych komputerach PC z 16 GB pamięci RAM i jest idealny dla użytkowników ceniących sobie styl odpowiedzi podobny do oferowanego przez ChatGPT.
  • gpt-oss-120b to zaawansowany model ze 120 miliardami parametrów, który pozwala na efektywne rozwiązywanie złożonych problemów, wnioskowanie i analizowanie dużych ilości danych. Do pełnego działania wymaga karty graficznej z 80 GB pamięci wideo.
  • qwen2.5-coder-14b to model przeznaczony do generowania kodu i dokumentacji technicznej. Może działać na procesorach graficznych z 8 do 12 GB pamięci wideo oraz w systemach z 16 GB pamięci RAM.
  • Gemma-3-12b potrafi generować tekst i kod, a także rozpoznawać obrazy i odpowiadać na pytania. Model z 12 miliardami parametrów wymaga około 32 GB pamięci RAM. Dostępne są również inne wersje: gemma-3-1b wymaga 4 GB, gemma-3-4b wymaga 8 GB, a gemma-3-27b wymaga 64 GB pamięci RAM. Jeśli zdecydujesz się na wersję skompresowaną, ten ostatni model można aktywować z 16 GB pamięci RAM.
  • phi-4-mini-reasoning to kompaktowy model wnioskowania opracowany przez Microsoft z 3,8 miliarda parametrów i większym oknem kontekstowym. Model ten skutecznie rozwiązuje problemy związane z wnioskowaniem logicznym i planowaniem. Do uruchomienia wymaga co najmniej 16 GB pamięci RAM.

Najwygodniejszym sposobem wyszukiwania modeli lokalnych jest skorzystanie z portalu Hugging Face, a nie wbudowanej wyszukiwarki w LM Studio. Zasób ten można porównać do serwisu GitHub dla sieci neuronowych, ponieważ zawiera tysiące modeli open source. Każde repozytorium zawiera samą sieć neuronową, informacje o jej funkcjonalności, a także rekomendacje dotyczące uruchamiania, ponownego trenowania i adaptacji do różnych zadań.

Nasza strona internetowa oferuje teraz filtry, które ułatwiają wyszukiwanie modeli. Można ich używać do określania liczby parametrów, typów zadań, obsługiwanych języków, a także adaptacji do konkretnych aplikacji i optymalizacji pod kątem żądań dostawców. Następnie wystarczy przejść do LM Studio i użyć funkcji wyszukiwania, aby znaleźć żądaną sieć neuronową.

Okno filtru i lista modeli w Hugging Face Zrzut ekranu: Hugging Face / Skillbox Media

Ocena możliwości LM Studio w codziennym życiu Ćwiczenie

Skuteczność odpowiedzi modeli lokalnych jest znacząco wyższa. Dokładność sieci neuronowej jest określana przez liczbę parametrów: im większa ich liczba, tym wyższa dokładność i jakość wyników. W poniższych przykładach przetestujemy sieć neuronową Qwen 3, która ma 4 miliardy parametrów. Ocenimy jej możliwości w takich obszarach jak programowanie, wyszukiwanie informacji, pisanie tekstu i rozwiązywanie problemów matematycznych.

Na początku naszego eksperymentu poprosiliśmy sieć neuronową o opracowanie skryptu w Pythonie, który wyświetlałby alfabet angielski jako Aa, Bb, Cc, Dd itd. W rezultacie otrzymaliśmy w pełni funkcjonalny kod, który pomyślnie wykonuje zadanie:

Zrzut ekranu: LM Studio / Skillbox Media

Zwiększyliśmy poziom trudności zadania i poprosiliśmy Qwen o naprawienie błędu w kodzie. Sieć neuronowa przeanalizowała problem, zasugerowała poprawiony kod i wyjaśniła, dlaczego funkcja nie działała poprawnie. Oto treść naszego żądania:

Gdy funkcja zwraca nową listę z dodanym elementem, może wystąpić problem z kumulacją elementów podczas wielu wywołań. Może się tak zdarzyć, ponieważ używasz obiektu zmiennego, takiego jak lista, i dodajesz elementy do tego samego obiektu przy każdym wywołaniu funkcji.

Aby rozwiązać ten problem, upewnij się, że tworzysz nową listę przy każdym wywołaniu funkcji, a nie modyfikujesz istniejącej. Na przykład, zamiast dołączać elementy do istniejącej listy, utwórz nową listę zawierającą wszystkie elementy ze starej listy oraz nowy element. Zapobiegnie to kumulacji wartości.

Oto przykład poprawionej funkcji:

«`python
def add_element(original_list, element):
new_list = original_list.copy() # Utwórz kopię oryginalnej listy
new_list.append(element) # Dodaj nowy element do kopii
return new_list # Zwróć nową listę
«`

W ten sposób za każdym razem, gdy funkcja zostanie wywołana, zostanie zwrócona nowa lista zawierająca tylko określony element, bez gromadzenia poprzednich wartości.

Oto odpowiedź z lokalizacji:

Głównym problemem jest to, że lista items=[] jest używana jako wartość domyślna. W rezultacie ta sama lista jest modyfikowana za każdym razem, gdy funkcja zostanie wywołana, zamiast tworzenia nowej. W rezultacie wielokrotne wywołania funkcji nadal dodają elementy do listy.

Poprawiony kod:

Wyjaśnienie:

  • Gdy funkcja append_item zostanie wywołana po raz pierwszy z argumentem „a”, tworzona jest nowa pusta lista [], następnie dodawany jest do niej element „a”, a następnie zwracana jest lista [„a”].
  • Gdy funkcja append_item zostanie wywołana po raz drugi z argumentem „b”, sprawdzana jest wartość parametru items, która domyślnie wynosi None. W tym przypadku inicjowana jest nowa pusta lista, oznaczona jako [], a do niej dodawany jest element „b”. W rezultacie funkcja zwraca listę zawierającą tylko „b”: [„b”].
  • Gdy funkcja append_item zostanie wywołana po raz trzeci z argumentem „c”, ponownie zostanie utworzona pusta lista [], do której zostanie następnie dodany element „c”.

W rezultacie przy każdym nowym wywołaniu funkcja tworzy i zwraca nową listę, zamiast dołączać elementy do istniejącej.

Przykład działania:

Nasz Qwen 3 nie ma możliwości przeszukiwania Internetu, co oznacza, że ​​może tworzyć fikcyjne zdarzenia i zniekształcać fakty. Gdy zapytaliśmy, w jakich kolorach będzie dostępny iPhone 17 Pro Max firmy Apple, sieć neuronowa odpowiedziała, że ​​jest to model, który jeszcze nie został wydany i dlatego nie ma żadnych informacji na temat jego projektu.

Zrzut ekranu: LM Studio / Skillbox Media

ChatGPT z łatwością obsługuje to żądanie, odwołując się do Przejdź do oficjalnej strony Apple. Nie da się zaprzeczyć, że wyszukiwanie informacji online odgrywa znaczącą rolę.

Zrzut ekranu: LM Studio / Skillbox Media

W ramach testów zwróciliśmy się do Qwen 3 z prośbą o stworzenie życzeń urodzinowych dla fikcyjnej postaci o imieniu Artem. Aby uczynić zadanie ciekawszym, określiliśmy, że pozdrowienia powinny zawierać oryginalne odniesienia do Formuły 1 i programowania — hobby naszego solenizanta. Poniżej znajduje się wynikowy tekst, który możemy przekazać do dowolnego obiektu Artem:

Zrzut ekranu: LM Studio / Skillbox Media

Rozważmy złożone wyrażenie matematyczne i poprośmy sieć neuronową o jego uproszczenie.

Niestety, Qwen 3 nie ma funkcji rozpoznawania obrazu. Dlatego też przekonwertowaliśmy wpis do formatu LaTeX i przedstawiliśmy go w następujący sposób: \sqrt{(2\sqrt{11}-3\sqrt{5})^{2}}+\frac{2}{4\sqrt{5}+9}+\sqrt{44}-18.

Model języka wykonał zadanie w ciągu 36 sekund, dostarczając szczegółowe wyjaśnienie rozwiązania i osiągając poprawny wynik. Oto, co otrzymała:

Zrzut ekranu: LM Studio / Skillbox Media

Głównym problemem jest to, że lista items=[] jest używana jako wartość domyślna. Prowadzi to do tego, że za każdym razem, gdy funkcja jest wywoływana, ta sama lista jest modyfikowana, zamiast tworzyć nową. W rezultacie, przy wielokrotnych wywołaniach funkcji, elementy zaczynają się kumulować.

Poprawiony kod:

Wyjaśnienie:

  • Gdy funkcja append_item zostanie wywołana po raz pierwszy z argumentem „a”, najpierw zostanie utworzona nowa, pusta lista []. Następnie do tej listy zostanie dodany element „a”, co spowoduje utworzenie listy ["a"].
  • Gdy metoda append_item zostanie wywołana po raz drugi z argumentem „b”, zostanie sprawdzona wartość parametru items, która domyślnie wynosi None. Tworzy to nową pustą listę [], do której dołączony jest element „b”, i zwraca listę zawierającą tylko ten element: ["b"].
  • Trzecie wywołanie funkcji append_item z argumentem „c” ponownie tworzy pustą listę [], do której następnie dołączony jest element „c”.

W rezultacie funkcja tworzy teraz nową listę przy każdym wywołaniu, zamiast gromadzić elementy.

Przykład w działaniu:

Poznawanie innych opcji LM Studio

W tej sekcji chcemy przedstawić krótki przegląd szeregu bezpłatnych aplikacji wieloplatformowych, które oferują podobną funkcjonalność do LM Studio. Na podstawie naszej analizy zidentyfikowaliśmy aplikacje takie jak Ollama, GPT4All i Jan.

Zainstalowaliśmy te aplikacje i zamierzaliśmy wgrać do każdej z nich model Qwen3 4B Thinking 2507. Następnie zadaliśmy każdemu z nich to samo pytanie: „Jakie masz zalety w porównaniu z LM Studio?” — i przedstawiliśmy wyniki.

Jednak nasze próby zakończyły się niepowodzeniem. Instalacja Qwen 3 w GPT4All i Jan zakończyła się sukcesem, ale oba programy zwróciły błąd podczas próby pobrania odpowiedzi. Katalog Ollama nie zawierał wymaganego modelu, więc zdecydowaliśmy się pobrać bazowy gemma3:4b, który zawiesił się podczas pierwszego uruchomienia.

Nie wyciągamy żadnych ostatecznych wniosków z tej sytuacji. Być może warto dokładniej zbadać ustawienia każdej usługi, spróbować je ponownie uruchomić lub przetestować inne modele. Jeśli masz ochotę, koniecznie poeksperymentuj. Jeśli jednak wolisz zacząć bez zbędnych trudności, od końca 2025 roku możemy polecić jedynie LM Studio.

Po lewej Jan, w prawym górnym rogu GPT4All, a w prawym dolnym rogu Ollam. Teoretycznie są one równie łatwe w użyciu jak LM Studio. Ale najwyraźniej nie dzisiaj. Zrzut ekranu: Jan / GPT4All / Ollama / Skillbox Media

Dowiedz się więcej fascynujących faktów na temat kodowania na naszym kanale Telegram. Dołącz do nas!

Przeczytaj także:

  • Dziesięć najlepszych lokalnych sieci neuronowych dla komputerów osobistych i laptopów w 2025 roku.
  • Tworzenie awatarów: 8 najlepszych rozwiązań sieci neuronowych do stylizacji obrazów.
  • Yandex Neuro: możliwości wyszukiwania AI i sposoby ich wykorzystania.