InvisibleHand Blog

Ollama: estrutura LLM de instalação local

  • Idioma de escrita: Coreana
  • País de referência: Todos os paísescountry-flag
  • TI

Criado: 2024-11-09

Criado: 2024-11-09 17:46

Introdução ao Ollama

O Ollama é um framework leve para executar modelos de linguagem locais. Este framework agrupa os pesos do modelo, as configurações e os conjuntos de dados em um único pacote integrado, projetado para otimizar diversos aplicativos de IA.

Guia de Instalação

Você pode baixar os arquivos de instalação para Mac, Linux e Windows no site do Ollama.


Ollama: estrutura LLM de instalação local

Começando

Após a instalação, execute o aplicativo Ollama.

Ollama: estrutura LLM de instalação local


Você pode inserir os seguintes comandos no terminal:

O Ollama também fornece uma API para interações mais detalhadas. Para mais informações, visite:

Selecionando o Modelo LLM

O Ollama suporta vários modelos, sendo que o modelo llama-3 8B possui 8 bilhões de parâmetros, sendo excelente para compreensão de contextos complexos e resolução de problemas. O desempenho de cada modelo pode variar dependendo do número de parâmetros e dos dados de treinamento, portanto, é importante selecionar o modelo adequado ao seu propósito.

Ollama: estrutura LLM de instalação local

O modelo llama-3 8B oferece desempenho semelhante ao GPT-3.5.

Ollama: estrutura LLM de instalação local

Upload de Documentos e Interface de Usuário de Chat

Usando ferramentas como o PrivateGPT, você pode conversar com o LLM do Ollama através de uma interface de chat.
http://PrivateGPT GitHub

Configurando o Ambiente Conda

  • Criando um novo ambiente: conda create -n privategpt python=3.11
  • Ativando o ambiente: conda activate privategpt

Instalando o PrivateGPT

  • Clonando o repositório: git clone https://github.com/imartinez/privateGPT
  • Instalando o Poetry: pip install poetry
  • Instalando o Make: brew install make
  • Instalando as dependências: poetry install --extras "ui embeddings-huggingface llms-llama-cpp vector-stores-qdrant
  • llms-ollama embeddings-ollama"
  • Configurando as definições: settings-ollama.yaml

Para usar o recurso de upload de documentos, você precisa instalar o modelo nomic-embed-text do Ollama.

  • Executando: PGPT_PROFILES=ollama make run
Ollama: estrutura LLM de instalação local

Conclusão

Usando o Ollama, você pode experimentar os recursos poderosos do processamento de linguagem natural, mantendo a privacidade e a segurança dos seus dados. Isso é especialmente vantajoso para empresas ou pesquisas onde a sensibilidade dos dados é crucial.
Aprenda a usar o Ollama e execute seu próprio LLM localmente. Não perca a oportunidade de controlar diretamente os recursos de processamento de linguagem natural de alto desempenho e ver os resultados instantaneamente.





Comentários0