Files
my-ia/QUICKSTART.md
2026-03-31 13:10:44 +02:00

4.3 KiB

🚀 Guide de démarrage rapide - AI Code Assistant sur WSL

Installation en 5 minutes

Étape 1: Préparer l'environnement WSL

# Ouvrir WSL Ubuntu
wsl

# Mettre à jour le système
sudo apt update && sudo apt upgrade -y

# Installer Python et dépendances
sudo apt install -y python3 python3-pip python3-venv

# Vérifier l'installation
python3 --version  # Doit être 3.10+

Étape 2: Créer la structure du projet

# Créer le dossier principal
mkdir -p ~/ai-code-assistant
cd ~/ai-code-assistant

# Créer la structure
mkdir -p backend frontend

# Copier les fichiers fournis:
# - Copier main.py dans backend/
# - Copier requirements.txt dans backend/
# - Copier index.html dans frontend/
# - Copier start.sh et stop.sh à la racine

Étape 3: Installer et configurer

# Rendre les scripts exécutables
chmod +x start.sh stop.sh

# Vérifier qu'Ollama est installé
which ollama

# Si pas installé:
curl -fsSL https://ollama.com/install.sh | sh

# Télécharger les modèles
ollama pull qwen2.5-coder:7b

Étape 4: Démarrer l'application

# Lancer tout en une commande
./start.sh

C'est tout ! 🎉

L'interface s'ouvrira automatiquement sur http://localhost:9000

Commandes essentielles

# Démarrer
./start.sh

# Arrêter
./stop.sh

# Redémarrer
./stop.sh && ./start.sh

# Voir les logs en temps réel
tail -f /tmp/fastapi.log

🎯 Premier test

  1. Ouvrir http://localhost:9000 dans votre navigateur
  2. Taper: "Écris une fonction Python pour calculer Fibonacci"
  3. Voir la réponse s'afficher en temps réel
  4. Cliquer sur "Tester" pour exécuter le code
  5. Modifier et réexécuter

🐛 Problèmes courants

"Port 8000 déjà utilisé"

# Tuer le processus
kill $(lsof -t -i :8000)

"Ollama non accessible"

# Redémarrer Ollama
pkill ollama
ollama serve &
sleep 3

"Page blanche dans le navigateur"

# Vérifier que le frontend tourne
curl http://localhost:9000

# Si non, relancer
./stop.sh
./start.sh

📱 Accès depuis Windows

L'application est accessible depuis Windows via:

🎨 Personnalisation rapide

Changer les couleurs

Éditer frontend/index.html, section <style>, modifier:

:root {
    --accent-primary: #7c3aed;  /* Violet par défaut */
    --accent-secondary: #a78bfa;
}

Exemples de couleurs:

  • Bleu: #3b82f6 / #60a5fa
  • Vert: #10b981 / #34d399
  • Rouge: #ef4444 / #f87171
  • Orange: #f59e0b / #fbbf24

Changer le modèle par défaut

Éditer frontend/index.html, ligne avec selectedModel:

const [selectedModel, setSelectedModel] = useState('qwen2.5-coder:7b');

💡 Astuces

  1. Raccourcis clavier:

    • Entrée = Envoyer le message
    • Shift + Entrée = Nouvelle ligne
  2. Copier le code: Cliquer sur "Copier" dans les blocs de code

  3. Tester rapidement: Cliquer sur "Tester" pour ouvrir dans l'éditeur

  4. Nouvelle conversation: Cliquer sur " Nouvelle conversation"

🔄 Mises à jour

Pour mettre à jour les modèles Ollama:

ollama pull qwen2.5-coder:7b

Pour mettre à jour les dépendances Python:

cd backend
source venv/bin/activate
pip install --upgrade -r requirements.txt

📊 Performance

Sur un GPU NVIDIA 8GB:

  • Génération: ~40-60 tokens/sec
  • Temps de réponse: < 1 seconde
  • RAM utilisée: ~2-3 GB
  • VRAM utilisée: ~5-6 GB

🎓 Exemples de prompts

Code:

  • "Écris une API REST avec FastAPI pour gérer des tâches"
  • "Crée un algorithme de recherche binaire en Python"
  • "Implémente un decorator pour mesurer le temps d'exécution"

Debug:

  • "Analyse ce code et trouve les bugs: [coller code]"
  • "Pourquoi est-ce que j'ai cette erreur: [coller erreur]"
  • "Optimise cette fonction pour la performance"

Explication:

  • "Explique comment fonctionnent les closures en JavaScript"
  • "Quelle est la différence entre async/await et promises?"
  • "Comment fonctionne le GIL en Python?"

🌟 Prochaines étapes

Maintenant que c'est installé, essayez:

  1. Créer votre propre Modelfile personnalisé
  2. Intégrer le RAG pour votre codebase
  3. Ajouter des fonctionnalités à l'interface
  4. Créer des prompts spécialisés pour vos besoins

Bon coding ! 🚀