Aider est le pair programmer IA qui fonctionne dans votre terminal. Il comprend l'ensemble de votre codebase et fait de vraies modifications à vos fichiers. Mais taper des prompts détaillés vous ralentit. Avec WhisperTyping, vous parlez à Aider naturellement - 4x plus vite qu'en tapant. Parfait pour les workflows de vibe coding.
Qu'est-ce qu'Aider ?
Aider est un assistant de codage IA open-source qui s'exécute dans votre terminal. Il peut voir l'ensemble de votre dépôt git, comprend le contexte du code et effectue des modifications directes sur vos fichiers. Il fonctionne avec GPT-4, Claude et d'autres LLMs. Pensez-y comme avoir un pair programmer IA qui peut vraiment écrire et commiter du code.
Toujours prêt quand vous l'êtes
Voici ce qui rend WhisperTyping indispensable : votre raccourci est toujours disponible, peu importe ce que vous faites. Que vous revoyiez les modifications d'Aider, testiez votre app ou lisiez le diff, appuyez sur votre raccourci et commencez à parler. Votre prochain prompt est prêt avant de revenir au terminal.
Vous voyez quelque chose de problématique dans le diff ? Appuyez sur le raccourci : "En fait, utilise une approche différente pour la gestion des erreurs." Quand vous revenez à Aider, votre pensée est capturée et prête à être envoyée.
Double-tap pour envoyer
La fonctionnalité que les développeurs adorent : double-tappez votre raccourci pour appuyer automatiquement sur Entrée. Dictez votre prompt et envoyez-le à Aider en un seul geste - complètement mains libres.
Un tap simple démarre l'enregistrement. Un double-tap arrête, transcrit et envoie. Pas besoin d'atteindre le clavier. Pas d'interruption de votre flow.
Vocabulaire personnalisé
La reconnaissance vocale peut avoir du mal avec les termes techniques. WhisperTyping vous permet d'ajouter votre stack à son vocabulaire :
- Noms de frameworks :
React,FastAPI,Django - Fonctions et classes :
UserService,handleAuth,validateInput - Les noms et conventions spécifiques à votre projet
Quand vous dites "mets à jour la classe UserService", il sait exactement ce que vous voulez dire.
Transcription contextuelle avec OCR
WhisperTyping lit votre écran via OCR. Quand vous regardez du code ou la sortie d'Aider, il voit les mêmes noms de fonctions, messages d'erreur et variables que vous - et les utilise pour transcrire précisément.
Parfait pour le mode Architect
Le mode architect d'Aider est idéal pour l'entrée vocale. Vous décrivez des modifications de haut niveau, et Aider planifie et les implémente :
- "Ajoute l'authentification à tous les endpoints API en utilisant des tokens JWT"
- "Refactorise la couche base de données pour utiliser le pattern repository"
- "Crée une couche de cache pour les requêtes utilisateur"
Prononcer ces instructions architecturales détaillées est bien plus rapide que les taper.
Pourquoi la voix pour Aider ?
Aider excelle avec des prompts détaillés et contextuels. La voix rend facile de fournir ce contexte :
- Expliquez les bugs de façon conversationnelle : "Les tests échouent parce que le mock ne retourne pas le bon format"
- Décrivez les fonctionnalités naturellement : "Ajoute un handler webhook qui traite les événements Stripe"
- Donnez des conseils d'implémentation : "Utilise l'injection de dépendances et assure-toi que c'est testable"