Initial commit
This commit is contained in:
210
QUICKSTART.md
Normal file
210
QUICKSTART.md
Normal file
@@ -0,0 +1,210 @@
|
||||
# 🚀 Guide de démarrage rapide - AI Code Assistant sur WSL
|
||||
|
||||
## Installation en 5 minutes
|
||||
|
||||
### Étape 1: Préparer l'environnement WSL
|
||||
|
||||
```bash
|
||||
# Ouvrir WSL Ubuntu
|
||||
wsl
|
||||
|
||||
# Mettre à jour le système
|
||||
sudo apt update && sudo apt upgrade -y
|
||||
|
||||
# Installer Python et dépendances
|
||||
sudo apt install -y python3 python3-pip python3-venv
|
||||
|
||||
# Vérifier l'installation
|
||||
python3 --version # Doit être 3.10+
|
||||
```
|
||||
|
||||
### Étape 2: Créer la structure du projet
|
||||
|
||||
```bash
|
||||
# Créer le dossier principal
|
||||
mkdir -p ~/ai-code-assistant
|
||||
cd ~/ai-code-assistant
|
||||
|
||||
# Créer la structure
|
||||
mkdir -p backend frontend
|
||||
|
||||
# Copier les fichiers fournis:
|
||||
# - Copier main.py dans backend/
|
||||
# - Copier requirements.txt dans backend/
|
||||
# - Copier index.html dans frontend/
|
||||
# - Copier start.sh et stop.sh à la racine
|
||||
```
|
||||
|
||||
### Étape 3: Installer et configurer
|
||||
|
||||
```bash
|
||||
# Rendre les scripts exécutables
|
||||
chmod +x start.sh stop.sh
|
||||
|
||||
# Vérifier qu'Ollama est installé
|
||||
which ollama
|
||||
|
||||
# Si pas installé:
|
||||
curl -fsSL https://ollama.com/install.sh | sh
|
||||
|
||||
# Télécharger les modèles
|
||||
ollama pull qwen2.5-coder:7b
|
||||
```
|
||||
|
||||
### Étape 4: Démarrer l'application
|
||||
|
||||
```bash
|
||||
# Lancer tout en une commande
|
||||
./start.sh
|
||||
```
|
||||
|
||||
**C'est tout !** 🎉
|
||||
|
||||
L'interface s'ouvrira automatiquement sur **http://localhost:9000**
|
||||
|
||||
## ⚡ Commandes essentielles
|
||||
|
||||
```bash
|
||||
# Démarrer
|
||||
./start.sh
|
||||
|
||||
# Arrêter
|
||||
./stop.sh
|
||||
|
||||
# Redémarrer
|
||||
./stop.sh && ./start.sh
|
||||
|
||||
# Voir les logs en temps réel
|
||||
tail -f /tmp/fastapi.log
|
||||
```
|
||||
|
||||
## 🎯 Premier test
|
||||
|
||||
1. Ouvrir http://localhost:9000 dans votre navigateur
|
||||
2. Taper: `"Écris une fonction Python pour calculer Fibonacci"`
|
||||
3. Voir la réponse s'afficher en temps réel
|
||||
4. Cliquer sur "Tester" pour exécuter le code
|
||||
5. Modifier et réexécuter
|
||||
|
||||
## 🐛 Problèmes courants
|
||||
|
||||
### "Port 8000 déjà utilisé"
|
||||
```bash
|
||||
# Tuer le processus
|
||||
kill $(lsof -t -i :8000)
|
||||
```
|
||||
|
||||
### "Ollama non accessible"
|
||||
```bash
|
||||
# Redémarrer Ollama
|
||||
pkill ollama
|
||||
ollama serve &
|
||||
sleep 3
|
||||
```
|
||||
|
||||
### "Page blanche dans le navigateur"
|
||||
```bash
|
||||
# Vérifier que le frontend tourne
|
||||
curl http://localhost:9000
|
||||
|
||||
# Si non, relancer
|
||||
./stop.sh
|
||||
./start.sh
|
||||
```
|
||||
|
||||
## 📱 Accès depuis Windows
|
||||
|
||||
L'application est accessible depuis Windows via:
|
||||
- **http://localhost:9000** (WSL forward automatique)
|
||||
- Ou **http://172.x.x.x:8080** (IP WSL, trouvez-la avec `ip addr`)
|
||||
|
||||
## 🎨 Personnalisation rapide
|
||||
|
||||
### Changer les couleurs
|
||||
|
||||
Éditer `frontend/index.html`, section `<style>`, modifier:
|
||||
|
||||
```css
|
||||
:root {
|
||||
--accent-primary: #7c3aed; /* Violet par défaut */
|
||||
--accent-secondary: #a78bfa;
|
||||
}
|
||||
```
|
||||
|
||||
Exemples de couleurs:
|
||||
- Bleu: `#3b82f6` / `#60a5fa`
|
||||
- Vert: `#10b981` / `#34d399`
|
||||
- Rouge: `#ef4444` / `#f87171`
|
||||
- Orange: `#f59e0b` / `#fbbf24`
|
||||
|
||||
### Changer le modèle par défaut
|
||||
|
||||
Éditer `frontend/index.html`, ligne avec `selectedModel`:
|
||||
|
||||
```javascript
|
||||
const [selectedModel, setSelectedModel] = useState('qwen2.5-coder:7b');
|
||||
```
|
||||
|
||||
## 💡 Astuces
|
||||
|
||||
1. **Raccourcis clavier**:
|
||||
- `Entrée` = Envoyer le message
|
||||
- `Shift + Entrée` = Nouvelle ligne
|
||||
|
||||
2. **Copier le code**: Cliquer sur "Copier" dans les blocs de code
|
||||
|
||||
3. **Tester rapidement**: Cliquer sur "Tester" pour ouvrir dans l'éditeur
|
||||
|
||||
4. **Nouvelle conversation**: Cliquer sur "✨ Nouvelle conversation"
|
||||
|
||||
## 🔄 Mises à jour
|
||||
|
||||
Pour mettre à jour les modèles Ollama:
|
||||
|
||||
```bash
|
||||
ollama pull qwen2.5-coder:7b
|
||||
```
|
||||
|
||||
Pour mettre à jour les dépendances Python:
|
||||
|
||||
```bash
|
||||
cd backend
|
||||
source venv/bin/activate
|
||||
pip install --upgrade -r requirements.txt
|
||||
```
|
||||
|
||||
## 📊 Performance
|
||||
|
||||
Sur un GPU NVIDIA 8GB:
|
||||
- Génération: ~40-60 tokens/sec
|
||||
- Temps de réponse: < 1 seconde
|
||||
- RAM utilisée: ~2-3 GB
|
||||
- VRAM utilisée: ~5-6 GB
|
||||
|
||||
## 🎓 Exemples de prompts
|
||||
|
||||
**Code**:
|
||||
- "Écris une API REST avec FastAPI pour gérer des tâches"
|
||||
- "Crée un algorithme de recherche binaire en Python"
|
||||
- "Implémente un decorator pour mesurer le temps d'exécution"
|
||||
|
||||
**Debug**:
|
||||
- "Analyse ce code et trouve les bugs: [coller code]"
|
||||
- "Pourquoi est-ce que j'ai cette erreur: [coller erreur]"
|
||||
- "Optimise cette fonction pour la performance"
|
||||
|
||||
**Explication**:
|
||||
- "Explique comment fonctionnent les closures en JavaScript"
|
||||
- "Quelle est la différence entre async/await et promises?"
|
||||
- "Comment fonctionne le GIL en Python?"
|
||||
|
||||
## 🌟 Prochaines étapes
|
||||
|
||||
Maintenant que c'est installé, essayez:
|
||||
|
||||
1. Créer votre propre Modelfile personnalisé
|
||||
2. Intégrer le RAG pour votre codebase
|
||||
3. Ajouter des fonctionnalités à l'interface
|
||||
4. Créer des prompts spécialisés pour vos besoins
|
||||
|
||||
Bon coding ! 🚀
|
||||
Reference in New Issue
Block a user