Files
my-ia/QUICKSTART.md

211 lines
4.3 KiB
Markdown
Raw Normal View History

2026-03-31 13:10:44 +02:00
# 🚀 Guide de démarrage rapide - AI Code Assistant sur WSL
## Installation en 5 minutes
### Étape 1: Préparer l'environnement WSL
```bash
# Ouvrir WSL Ubuntu
wsl
# Mettre à jour le système
sudo apt update && sudo apt upgrade -y
# Installer Python et dépendances
sudo apt install -y python3 python3-pip python3-venv
# Vérifier l'installation
python3 --version # Doit être 3.10+
```
### Étape 2: Créer la structure du projet
```bash
# Créer le dossier principal
mkdir -p ~/ai-code-assistant
cd ~/ai-code-assistant
# Créer la structure
mkdir -p backend frontend
# Copier les fichiers fournis:
# - Copier main.py dans backend/
# - Copier requirements.txt dans backend/
# - Copier index.html dans frontend/
# - Copier start.sh et stop.sh à la racine
```
### Étape 3: Installer et configurer
```bash
# Rendre les scripts exécutables
chmod +x start.sh stop.sh
# Vérifier qu'Ollama est installé
which ollama
# Si pas installé:
curl -fsSL https://ollama.com/install.sh | sh
# Télécharger les modèles
ollama pull qwen2.5-coder:7b
```
### Étape 4: Démarrer l'application
```bash
# Lancer tout en une commande
./start.sh
```
**C'est tout !** 🎉
L'interface s'ouvrira automatiquement sur **http://localhost:9000**
## ⚡ Commandes essentielles
```bash
# Démarrer
./start.sh
# Arrêter
./stop.sh
# Redémarrer
./stop.sh && ./start.sh
# Voir les logs en temps réel
tail -f /tmp/fastapi.log
```
## 🎯 Premier test
1. Ouvrir http://localhost:9000 dans votre navigateur
2. Taper: `"Écris une fonction Python pour calculer Fibonacci"`
3. Voir la réponse s'afficher en temps réel
4. Cliquer sur "Tester" pour exécuter le code
5. Modifier et réexécuter
## 🐛 Problèmes courants
### "Port 8000 déjà utilisé"
```bash
# Tuer le processus
kill $(lsof -t -i :8000)
```
### "Ollama non accessible"
```bash
# Redémarrer Ollama
pkill ollama
ollama serve &
sleep 3
```
### "Page blanche dans le navigateur"
```bash
# Vérifier que le frontend tourne
curl http://localhost:9000
# Si non, relancer
./stop.sh
./start.sh
```
## 📱 Accès depuis Windows
L'application est accessible depuis Windows via:
- **http://localhost:9000** (WSL forward automatique)
- Ou **http://172.x.x.x:8080** (IP WSL, trouvez-la avec `ip addr`)
## 🎨 Personnalisation rapide
### Changer les couleurs
Éditer `frontend/index.html`, section `<style>`, modifier:
```css
:root {
--accent-primary: #7c3aed; /* Violet par défaut */
--accent-secondary: #a78bfa;
}
```
Exemples de couleurs:
- Bleu: `#3b82f6` / `#60a5fa`
- Vert: `#10b981` / `#34d399`
- Rouge: `#ef4444` / `#f87171`
- Orange: `#f59e0b` / `#fbbf24`
### Changer le modèle par défaut
Éditer `frontend/index.html`, ligne avec `selectedModel`:
```javascript
const [selectedModel, setSelectedModel] = useState('qwen2.5-coder:7b');
```
## 💡 Astuces
1. **Raccourcis clavier**:
- `Entrée` = Envoyer le message
- `Shift + Entrée` = Nouvelle ligne
2. **Copier le code**: Cliquer sur "Copier" dans les blocs de code
3. **Tester rapidement**: Cliquer sur "Tester" pour ouvrir dans l'éditeur
4. **Nouvelle conversation**: Cliquer sur "✨ Nouvelle conversation"
## 🔄 Mises à jour
Pour mettre à jour les modèles Ollama:
```bash
ollama pull qwen2.5-coder:7b
```
Pour mettre à jour les dépendances Python:
```bash
cd backend
source venv/bin/activate
pip install --upgrade -r requirements.txt
```
## 📊 Performance
Sur un GPU NVIDIA 8GB:
- Génération: ~40-60 tokens/sec
- Temps de réponse: < 1 seconde
- RAM utilisée: ~2-3 GB
- VRAM utilisée: ~5-6 GB
## 🎓 Exemples de prompts
**Code**:
- "Écris une API REST avec FastAPI pour gérer des tâches"
- "Crée un algorithme de recherche binaire en Python"
- "Implémente un decorator pour mesurer le temps d'exécution"
**Debug**:
- "Analyse ce code et trouve les bugs: [coller code]"
- "Pourquoi est-ce que j'ai cette erreur: [coller erreur]"
- "Optimise cette fonction pour la performance"
**Explication**:
- "Explique comment fonctionnent les closures en JavaScript"
- "Quelle est la différence entre async/await et promises?"
- "Comment fonctionne le GIL en Python?"
## 🌟 Prochaines étapes
Maintenant que c'est installé, essayez:
1. Créer votre propre Modelfile personnalisé
2. Intégrer le RAG pour votre codebase
3. Ajouter des fonctionnalités à l'interface
4. Créer des prompts spécialisés pour vos besoins
Bon coding ! 🚀