Guia de instalação e uso do Ollama
Introdução
Hoje em dia, a inteligência artificial está cada vez mais presente na vida dos profissionais de desenvolvimento de software, e a capacidade de executar os Modelos de Linguagem Grandes (no inglês, Large Language Models - LLMs) localmente pode ser um diferencial para quem deseja testar os últimos lançamentos da comunidade científica e empresarial, sem pagar pelo processamento dos tokens e vincular o cartão de crédito. Nesta guia vamos explorar como configurar e utilizar a ferramenta Ollama.
O que é Ollama?
O Ollama é uma ferramenta e plataforma que simplifica o uso de modelos LLMs localmente. Esta ferramenta é projetada para simplificar configurações complexas que anteriormente eram necessárias para instalar um LLM localmente. O uso da ferramenta Ollama permite que desenvolvedores e entusiastas de Inteligência Artificial (IA) utilizem os LLMs de maneira mais acessível e eficiente, facilitando a integração e experimentação em projetos.
A seguir, algumas vantagens da ferramenta:
- Executar um LLM localmente, sem acesso a internet;
- Total controle sobre os dados, garantindo privacidade e segurança;
- Acesso à LLMs que acabaram de ser lançados;
- Integração por meio de API.
Em contrapartida, a desvantagem é o hardware. Para executar um LLM com a ferramenta Ollama é necessário possuir um hardware bom, sendo recomendável um hardware com GPU. Caso contrário, quanto pior o hardware mais lenta será a resposta do LLM.
Requisitos de Hardware e Software
Para o uso eficiente da ferramenta Ollama, é recomendável ter um hardware robusto. O uso de uma GPU dedicada melhora significativamente a performance do modelo utilizado. No entanto, também é possível utilizar apenas CPUs, as CPUs modernas com instruções AVX/AVX2 suportam a maioria dos modelos disponíveis na plataforma Ollama. Atualmente, o Ollama é compatível com os sistemas operacionais Windows, MacOS e Linux.
Instalação da ferramenta Ollama
Ollama é compatível com os sistemas operacionais Windows, MacOS e Linux. Logo, utilize as instruções de acordo com o seu sistema operacional:
Windows
- Baixe o instalador no site oficial;
- Execute o arquivo .exe e siga as instruções do assistente de instalação;
- Após a instalação, abra o terminal (cmd ou PowerShell) e verifique se a Ollama está instalado corretamente com o comando
ollama --version
.
MacOS
- Baixe o instalador no site oficial;
- Execute o arquivo .dmg e siga as instruções do assistente de instalação;
- Verifique a instalação abrindo o terminal e digitando
ollama --version
.
Linux
- Abra o terminal e execute o comando
curl -fsSL https://ollama.com/install.sh | sh
; - Verifique a instalação com o comando
ollama --version
.
Seleção do Modelo
Após instalar a ferramenta Ollama, você pode baixar e configurar um LLM usando o comando ollama pull <nome-do-modelo>
. Por exemplo, para baixar o modelo Llama 2, utilize o comando:
ollama pull llama2.
Além do Llama2, também existem muitos outros modelos disponíveis para download.
Execução do Modelo
Para executar um LLM com a Ollama, utilize o comando ollama run <nome-do-modelo>
. Por exemplo, com o comando a seguir, exucata o LLM LLama 2 no seu ambiente de desenvolvimento local.
ollama run llama2
Após executar o comando anterior, o modelo ficará disponível para uso em dois formatos: terminal e API.
Interação via terminal
Após iniciar o modelo, já é possível enviar e receber respostas. Como ilustrado na figura a seguir:
Interação via API
A ferramenta Ollama também permite que outras aplicações façam uso do LLM, por meio de API. Para mais detalhes, consulte a documentação da API.
Dicas e Melhores Práticas
Como otimizar a performance do modelo
- Hardware: utilize uma GPU dedicada para melhor performance;
- Drivers: mantenha os drivers da GPU atualizados;
- Recursos do sistema: feche aplicativos desnecessários para liberar recursos.
Resolvendo problemas comuns
- Instalação: certifique-se de que seu sistema está atualizado e que você tem permissões adequadas;
- Carregamento de modelos: Verifique se o nome do modelo está correto e se há - atualizações disponíveis;
- Conectividade da API: Certifique-se de que o Ollama está rodando e que a porta padrão não está em uso por outro aplicativo.
Conclusão
Nesta guia, exploramos como instalar e configurar a ferramenta Ollama, baixar e executar os LLMs. A modelos de liguagem podem ser utilizados no terminal ou via API. Com esta ferramenta, você está pronto para explorar o mundo da IA na sua máquina local.
Comments