InvisibleHand Blog

Ollama: helyi telepítésű LLM

  • Írás nyelve: Koreai
  • Országkód: Minden országcountry-flag
  • Informatika

Létrehozva: 2024-11-09

Létrehozva: 2024-11-09 17:46

Ollama bemutatása

Az Ollama egy könnyű súlyú keretrendszer a helyi nyelvi modellek futtatásához. Ez a keretrendszer a modell súlyait, beállításait és adatkészleteit egyetlen integrált csomagba köti össze, hogy optimalizálható legyen a különféle mesterséges intelligencia alkalmazásokhoz.

Telepítési útmutató

Az Ollama weboldaláról letöltheti a Mac, Linux és Windows rendszerekhez készült telepítőfájlokat.


Ollama: helyi telepítésű LLM

Kezdés

A telepítés befejezése után futtassa az Ollama alkalmazást.

Ollama: helyi telepítésű LLM


A terminálban a következő parancsokat adhatja meg:

Az Ollama részletesebb interakciókhoz API-t is kínál. További információkért látogasson el ide:

LLM modell kiválasztása

Az Ollama számos modellt támogat, köztük a llama-3 8B modellt, amely 8 milliárd paraméterrel rendelkezik, és kiváló a komplex kontextus megértésében és a problémamegoldásban. Az egyes modellek teljesítménye a paraméterek számától és a képzési adatoktól függ, ezért fontos a felhasználási célnak megfelelő modell kiválasztása.

Ollama: helyi telepítésű LLM

A llama-3 8B modell a GPT-3.5-höz hasonló teljesítményt nyújt.

Ollama: helyi telepítésű LLM

Dokumentum feltöltés és chat felület

A PrivateGPT-hez hasonló eszközök segítségével az Ollama LLM-jén keresztül chat felületen is kommunikálhat.
http://PrivateGPT GitHub

Conda környezet beállítása

  • Új környezet létrehozása: conda create -n privategpt python=3.11
  • Környezet aktiválása: conda activate privategpt

PrivateGPT telepítése

  • Tároló klónozása: git clone https://github.com/imartinez/privateGPT
  • Poetry telepítése: pip install poetry
  • Make telepítése: brew install make
  • Függőségek telepítése: poetry install --extras "ui embeddings-huggingface llms-llama-cpp vector-stores-qdrant
  • llms-ollama embeddings-ollama"
  • Beállítások konfigurálása: settings-ollama.yaml

A dokumentum feltöltési funkció használatához telepíteni kell az Ollama nomic-embed-text modelljét.

  • Futtatás: PGPT_PROFILES=ollama make run
Ollama: helyi telepítésű LLM

Következtetés

Az Ollama használatával megőrizheti az adatvédelmet és az adatbiztonságot, miközben élvezheti a hatékony természetes nyelvi feldolgozás előnyeit. Ez különösen fontos előny a bizalmas adatokkal foglalkozó vállalkozások vagy kutatások számára.
Ismerje meg az Ollama használatát, és futtassa a saját LLM-jét helyben. Ne hagyja ki a lehetőséget, hogy közvetlenül vezérelje a nagy teljesítményű természetes nyelvi feldolgozást, és azonnal lássa az eredményeket!





Hozzászólások0

Az SK C&C bemutatja a 'Soluer LLMOps' platformot, amely támogatja a testreszabott sLLM-ek implementációját az ügyfelek számáraAz SK C&C piacra dobta a 'Soluer LLMOps' platformot, amely lehetővé teszi a vállalkozások számára, hogy testreszabott, kis méretű nagyméretű nyelvi modelleket (sLLM) építsenek. A platform lehetővé teszi az sLLM-ek egyszerű létrehozását húzás-és-elengedés
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

May 20, 2024