Ollama-CLI

Ollama-CLI es una herramienta de línea de comandos potente y colorida diseñada para interactuar con modelos de IA locales a través de Ollama. Permite chatear con modelos como Llama 3, Gemma o Mistral sin necesidad de conexión a internet.

Descripción Técnica

Escrita íntegramente en Go, esta CLI se encarga de gestionar el ciclo de vida del servicio ollama de forma automática, asegurando que el servidor esté activo cuando lo necesites y se detenga al finalizar.

Características Principales

  • Gestión Automática: Inicia y detiene el proceso ollama serve de forma transparente para el usuario.
  • Interfaz Colorida: Proporciona una experiencia de chat en la terminal visualmente atractiva y fácil de leer.
  • Memoria de Contexto: Mantiene el historial de la conversación para que el modelo pueda recordar interacciones previas dentro de la misma sesión.
  • Streaming de Respuestas: Visualiza las respuestas de la IA en tiempo real, palabra por palabra.
  • Privacidad Garantizada: Todas las consultas se procesan localmente en tu hardware, sin enviar datos a la nube.

Documentación y Código

AnabasaSoft

Tecnologías

  • Go (Golang)
  • Ollama API
  • CLI Design
  • Local AI