4.3 KiB
4.3 KiB
🚀 Guide de démarrage rapide - AI Code Assistant sur WSL
Installation en 5 minutes
Étape 1: Préparer l'environnement WSL
# Ouvrir WSL Ubuntu
wsl
# Mettre à jour le système
sudo apt update && sudo apt upgrade -y
# Installer Python et dépendances
sudo apt install -y python3 python3-pip python3-venv
# Vérifier l'installation
python3 --version # Doit être 3.10+
Étape 2: Créer la structure du projet
# Créer le dossier principal
mkdir -p ~/ai-code-assistant
cd ~/ai-code-assistant
# Créer la structure
mkdir -p backend frontend
# Copier les fichiers fournis:
# - Copier main.py dans backend/
# - Copier requirements.txt dans backend/
# - Copier index.html dans frontend/
# - Copier start.sh et stop.sh à la racine
Étape 3: Installer et configurer
# Rendre les scripts exécutables
chmod +x start.sh stop.sh
# Vérifier qu'Ollama est installé
which ollama
# Si pas installé:
curl -fsSL https://ollama.com/install.sh | sh
# Télécharger les modèles
ollama pull qwen2.5-coder:7b
Étape 4: Démarrer l'application
# Lancer tout en une commande
./start.sh
C'est tout ! 🎉
L'interface s'ouvrira automatiquement sur http://localhost:9000
⚡ Commandes essentielles
# Démarrer
./start.sh
# Arrêter
./stop.sh
# Redémarrer
./stop.sh && ./start.sh
# Voir les logs en temps réel
tail -f /tmp/fastapi.log
🎯 Premier test
- Ouvrir http://localhost:9000 dans votre navigateur
- Taper:
"Écris une fonction Python pour calculer Fibonacci" - Voir la réponse s'afficher en temps réel
- Cliquer sur "Tester" pour exécuter le code
- Modifier et réexécuter
🐛 Problèmes courants
"Port 8000 déjà utilisé"
# Tuer le processus
kill $(lsof -t -i :8000)
"Ollama non accessible"
# Redémarrer Ollama
pkill ollama
ollama serve &
sleep 3
"Page blanche dans le navigateur"
# Vérifier que le frontend tourne
curl http://localhost:9000
# Si non, relancer
./stop.sh
./start.sh
📱 Accès depuis Windows
L'application est accessible depuis Windows via:
- http://localhost:9000 (WSL forward automatique)
- Ou http://172.x.x.x:8080 (IP WSL, trouvez-la avec
ip addr)
🎨 Personnalisation rapide
Changer les couleurs
Éditer frontend/index.html, section <style>, modifier:
:root {
--accent-primary: #7c3aed; /* Violet par défaut */
--accent-secondary: #a78bfa;
}
Exemples de couleurs:
- Bleu:
#3b82f6/#60a5fa - Vert:
#10b981/#34d399 - Rouge:
#ef4444/#f87171 - Orange:
#f59e0b/#fbbf24
Changer le modèle par défaut
Éditer frontend/index.html, ligne avec selectedModel:
const [selectedModel, setSelectedModel] = useState('qwen2.5-coder:7b');
💡 Astuces
-
Raccourcis clavier:
Entrée= Envoyer le messageShift + Entrée= Nouvelle ligne
-
Copier le code: Cliquer sur "Copier" dans les blocs de code
-
Tester rapidement: Cliquer sur "Tester" pour ouvrir dans l'éditeur
-
Nouvelle conversation: Cliquer sur "✨ Nouvelle conversation"
🔄 Mises à jour
Pour mettre à jour les modèles Ollama:
ollama pull qwen2.5-coder:7b
Pour mettre à jour les dépendances Python:
cd backend
source venv/bin/activate
pip install --upgrade -r requirements.txt
📊 Performance
Sur un GPU NVIDIA 8GB:
- Génération: ~40-60 tokens/sec
- Temps de réponse: < 1 seconde
- RAM utilisée: ~2-3 GB
- VRAM utilisée: ~5-6 GB
🎓 Exemples de prompts
Code:
- "Écris une API REST avec FastAPI pour gérer des tâches"
- "Crée un algorithme de recherche binaire en Python"
- "Implémente un decorator pour mesurer le temps d'exécution"
Debug:
- "Analyse ce code et trouve les bugs: [coller code]"
- "Pourquoi est-ce que j'ai cette erreur: [coller erreur]"
- "Optimise cette fonction pour la performance"
Explication:
- "Explique comment fonctionnent les closures en JavaScript"
- "Quelle est la différence entre async/await et promises?"
- "Comment fonctionne le GIL en Python?"
🌟 Prochaines étapes
Maintenant que c'est installé, essayez:
- Créer votre propre Modelfile personnalisé
- Intégrer le RAG pour votre codebase
- Ajouter des fonctionnalités à l'interface
- Créer des prompts spécialisés pour vos besoins
Bon coding ! 🚀