211 lines
4.3 KiB
Markdown
211 lines
4.3 KiB
Markdown
# 🚀 Guide de démarrage rapide - AI Code Assistant sur WSL
|
|
|
|
## Installation en 5 minutes
|
|
|
|
### Étape 1: Préparer l'environnement WSL
|
|
|
|
```bash
|
|
# Ouvrir WSL Ubuntu
|
|
wsl
|
|
|
|
# Mettre à jour le système
|
|
sudo apt update && sudo apt upgrade -y
|
|
|
|
# Installer Python et dépendances
|
|
sudo apt install -y python3 python3-pip python3-venv
|
|
|
|
# Vérifier l'installation
|
|
python3 --version # Doit être 3.10+
|
|
```
|
|
|
|
### Étape 2: Créer la structure du projet
|
|
|
|
```bash
|
|
# Créer le dossier principal
|
|
mkdir -p ~/ai-code-assistant
|
|
cd ~/ai-code-assistant
|
|
|
|
# Créer la structure
|
|
mkdir -p backend frontend
|
|
|
|
# Copier les fichiers fournis:
|
|
# - Copier main.py dans backend/
|
|
# - Copier requirements.txt dans backend/
|
|
# - Copier index.html dans frontend/
|
|
# - Copier start.sh et stop.sh à la racine
|
|
```
|
|
|
|
### Étape 3: Installer et configurer
|
|
|
|
```bash
|
|
# Rendre les scripts exécutables
|
|
chmod +x start.sh stop.sh
|
|
|
|
# Vérifier qu'Ollama est installé
|
|
which ollama
|
|
|
|
# Si pas installé:
|
|
curl -fsSL https://ollama.com/install.sh | sh
|
|
|
|
# Télécharger les modèles
|
|
ollama pull qwen2.5-coder:7b
|
|
```
|
|
|
|
### Étape 4: Démarrer l'application
|
|
|
|
```bash
|
|
# Lancer tout en une commande
|
|
./start.sh
|
|
```
|
|
|
|
**C'est tout !** 🎉
|
|
|
|
L'interface s'ouvrira automatiquement sur **http://localhost:9000**
|
|
|
|
## ⚡ Commandes essentielles
|
|
|
|
```bash
|
|
# Démarrer
|
|
./start.sh
|
|
|
|
# Arrêter
|
|
./stop.sh
|
|
|
|
# Redémarrer
|
|
./stop.sh && ./start.sh
|
|
|
|
# Voir les logs en temps réel
|
|
tail -f /tmp/fastapi.log
|
|
```
|
|
|
|
## 🎯 Premier test
|
|
|
|
1. Ouvrir http://localhost:9000 dans votre navigateur
|
|
2. Taper: `"Écris une fonction Python pour calculer Fibonacci"`
|
|
3. Voir la réponse s'afficher en temps réel
|
|
4. Cliquer sur "Tester" pour exécuter le code
|
|
5. Modifier et réexécuter
|
|
|
|
## 🐛 Problèmes courants
|
|
|
|
### "Port 8000 déjà utilisé"
|
|
```bash
|
|
# Tuer le processus
|
|
kill $(lsof -t -i :8000)
|
|
```
|
|
|
|
### "Ollama non accessible"
|
|
```bash
|
|
# Redémarrer Ollama
|
|
pkill ollama
|
|
ollama serve &
|
|
sleep 3
|
|
```
|
|
|
|
### "Page blanche dans le navigateur"
|
|
```bash
|
|
# Vérifier que le frontend tourne
|
|
curl http://localhost:9000
|
|
|
|
# Si non, relancer
|
|
./stop.sh
|
|
./start.sh
|
|
```
|
|
|
|
## 📱 Accès depuis Windows
|
|
|
|
L'application est accessible depuis Windows via:
|
|
- **http://localhost:9000** (WSL forward automatique)
|
|
- Ou **http://172.x.x.x:8080** (IP WSL, trouvez-la avec `ip addr`)
|
|
|
|
## 🎨 Personnalisation rapide
|
|
|
|
### Changer les couleurs
|
|
|
|
Éditer `frontend/index.html`, section `<style>`, modifier:
|
|
|
|
```css
|
|
:root {
|
|
--accent-primary: #7c3aed; /* Violet par défaut */
|
|
--accent-secondary: #a78bfa;
|
|
}
|
|
```
|
|
|
|
Exemples de couleurs:
|
|
- Bleu: `#3b82f6` / `#60a5fa`
|
|
- Vert: `#10b981` / `#34d399`
|
|
- Rouge: `#ef4444` / `#f87171`
|
|
- Orange: `#f59e0b` / `#fbbf24`
|
|
|
|
### Changer le modèle par défaut
|
|
|
|
Éditer `frontend/index.html`, ligne avec `selectedModel`:
|
|
|
|
```javascript
|
|
const [selectedModel, setSelectedModel] = useState('qwen2.5-coder:7b');
|
|
```
|
|
|
|
## 💡 Astuces
|
|
|
|
1. **Raccourcis clavier**:
|
|
- `Entrée` = Envoyer le message
|
|
- `Shift + Entrée` = Nouvelle ligne
|
|
|
|
2. **Copier le code**: Cliquer sur "Copier" dans les blocs de code
|
|
|
|
3. **Tester rapidement**: Cliquer sur "Tester" pour ouvrir dans l'éditeur
|
|
|
|
4. **Nouvelle conversation**: Cliquer sur "✨ Nouvelle conversation"
|
|
|
|
## 🔄 Mises à jour
|
|
|
|
Pour mettre à jour les modèles Ollama:
|
|
|
|
```bash
|
|
ollama pull qwen2.5-coder:7b
|
|
```
|
|
|
|
Pour mettre à jour les dépendances Python:
|
|
|
|
```bash
|
|
cd backend
|
|
source venv/bin/activate
|
|
pip install --upgrade -r requirements.txt
|
|
```
|
|
|
|
## 📊 Performance
|
|
|
|
Sur un GPU NVIDIA 8GB:
|
|
- Génération: ~40-60 tokens/sec
|
|
- Temps de réponse: < 1 seconde
|
|
- RAM utilisée: ~2-3 GB
|
|
- VRAM utilisée: ~5-6 GB
|
|
|
|
## 🎓 Exemples de prompts
|
|
|
|
**Code**:
|
|
- "Écris une API REST avec FastAPI pour gérer des tâches"
|
|
- "Crée un algorithme de recherche binaire en Python"
|
|
- "Implémente un decorator pour mesurer le temps d'exécution"
|
|
|
|
**Debug**:
|
|
- "Analyse ce code et trouve les bugs: [coller code]"
|
|
- "Pourquoi est-ce que j'ai cette erreur: [coller erreur]"
|
|
- "Optimise cette fonction pour la performance"
|
|
|
|
**Explication**:
|
|
- "Explique comment fonctionnent les closures en JavaScript"
|
|
- "Quelle est la différence entre async/await et promises?"
|
|
- "Comment fonctionne le GIL en Python?"
|
|
|
|
## 🌟 Prochaines étapes
|
|
|
|
Maintenant que c'est installé, essayez:
|
|
|
|
1. Créer votre propre Modelfile personnalisé
|
|
2. Intégrer le RAG pour votre codebase
|
|
3. Ajouter des fonctionnalités à l'interface
|
|
4. Créer des prompts spécialisés pour vos besoins
|
|
|
|
Bon coding ! 🚀
|