100% Privado y Local

Chatea con tus manuales
sin salir de tu red

Un motor de búsqueda inteligente basado en RAG que utiliza Llama 3.2 para analizar tus PDFs técnicos localmente. Potencia, privacidad y velocidad en una interfaz premium.

Ver en GitHub
pip install -r requirements.txt
localhost:8000

Privacidad Extrema

Tus manuales nunca tocan la nube. Toda la inferencia se realiza mediante Ollama en tu hardware local.

Inferencia Rápida

Optimizado para Llama 3.2, ofreciendo respuestas rápidas con un consumo de recursos equilibrado.

Citas Precisas

No solo responde, sino que te indica el documento y la página exacta de donde extrajo la información.