install_guide.exe
ARIA ✱
guide d'installation · personal ai assistant
100% offline flask + rag llama 3 windows · mac · linux python 3.10+
prerequis.exe
1 Prérequis — ce qu'il faut installer
A
Python 3.10 ou plus récent
Télécharge et installe Python depuis python.org/downloads
⚠️ Coche bien "Add Python to PATH" pendant l'installation !
# Vérifie que Python est installé python --version # Doit afficher : Python 3.10.x ou plus
B
Ollama (le moteur IA)
Télécharge Ollama depuis ollama.com/download et installe-le.
Puis télécharge le modèle Llama 3 :
# Dans un terminal, télécharge Llama 3 ollama pull llama3 # (peut prendre 5-10 min selon ta connexion, ~4.7 Go) # Si c'est trop lourd, version légère : ollama pull llama3.2:3b
Si le téléchargement est trop long, utilise llama3.2:3b — moins précis mais beaucoup plus rapide !
installation.exe
2 Installation du projet
1
Extrais le fichier ZIP
Dézippe aria-ai.zip où tu veux sur ton ordi (Bureau, Documents...). Tu obtiens ce dossier :
aria-ai/
  ├── app.py            ← le serveur IA
  ├── index_docs.py   ← pour indexer tes docs
  ├── requirements.txt ← dépendances
  ├── templates/
  │   └── index.html    ← l'interface ARIA
  └── docs/           ← mets tes PDFs ici
2
Ouvre un terminal dans le dossier
Windows : dans le dossier aria-ai, clique droit → "Ouvrir dans le terminal"
Mac : glisse le dossier sur l'icône Terminal, ou clique droit → "Nouveau terminal au dossier"
Linux : clic droit dans le dossier → "Ouvrir un terminal"
3
Installe les dépendances Python
Copie-colle cette commande dans le terminal :
pip install -r requirements.txt # Attends que tout s'installe (2-5 min)
Si tu as une erreur, essaie pip3 à la place de pip
4
Ajoute tes documents (optionnel)
Glisse tes fichiers .pdf, .txt ou .md dans le dossier docs/ puis lance :
python index_docs.py # Indexe tes documents dans la base vectorielle # À relancer si tu ajoutes de nouveaux fichiers
launch.exe
3 Lancer ARIA
Tu as besoin de deux terminaux ouverts en même temps — un pour Ollama, un pour ARIA.
Terminal 1 — Ollama
ollama serve
Lance le moteur IA en arrière-plan. Laisse ce terminal ouvert !
Terminal 2 — ARIA
python app.py
Lance le serveur ARIA. Laisse ce terminal ouvert aussi !
Puis ouvre ton navigateur sur
http://localhost:5000
Chrome ou Firefox recommandé pour la reconnaissance vocale 🎤
Les prochaines fois, tu n'as besoin que de ces deux commandes — ollama serve et python app.py !
features.exe
4 Ce qu'ARIA sait faire
Chat intelligent
Pose n'importe quelle question, ARIA répond grâce à Llama 3 en local.
Lecture de documents
Upload tes PDFs, .txt ou .md directement dans l'interface.
Reconnaissance vocale
Clique sur le micro 🎤 et parle — ARIA transcrit et répond.
Synthèse vocale
ARIA peut lire ses réponses à voix haute via les hauts-parleurs.
Historique
Tes conversations sont sauvegardées localement dans le navigateur.
Thèmes blue-pink / green-pink
Switch de thème en un clic en haut à droite ✱
100% offline
Aucune donnée envoyée sur internet. Tout tourne sur ton ordi.
Questions rapides
Sidebar avec des raccourcis pour résumé, quiz, plan structuré...
troubleshoot.exe
5 Problèmes fréquents
❌ "ollama: command not found"
Ollama n'est pas installé ou pas dans le PATH. Réinstalle-le depuis ollama.com/download et redémarre ton terminal.
❌ "model not found" ou "llama3 not found"
Lance d'abord ollama pull llama3 dans ton terminal. Si tu as utilisé llama3.2:3b, change MODEL = "llama3.2:3b" dans app.py.
❌ "pip is not recognized" (Windows)
Python n'est pas dans ton PATH. Réinstalle Python en cochant bien "Add Python to PATH", ou utilise py -m pip install -r requirements.txt.
❌ La page ne s'ouvre pas / "Connection refused"
Vérifie que les deux terminaux sont bien ouverts et actifs (ollama serve ET python app.py). Attends quelques secondes après le lancement.
🐢 Les réponses sont très lentes
Normal au premier lancement — Llama 3 charge en mémoire. Essaie le modèle plus léger : ollama pull llama3.2:3b et change MODEL = "llama3.2:3b" dans app.py.
🎤 Le micro ne fonctionne pas
La reconnaissance vocale nécessite Chrome ou Firefox. Autorise l'accès au micro dans les permissions du navigateur quand il le demande.
ARIA ✱
personal ai · offline forever · made with 💜