Aider est le pair programmer IA qui fonctionne dans votre terminal. Il comprend l'ensemble de votre codebase et fait de vraies modifications a vos fichiers. Mais taper des prompts detailles vous ralentit. Avec WhisperTyping, vous parlez a Aider naturellement - 4x plus vite qu'en tapant. Parfait pour les workflows de vibe coding.
Qu'est-ce qu'Aider ?
Aider est un assistant de codage IA open-source qui s'execute dans votre terminal. Il peut voir l'ensemble de votre depot git, comprend le contexte du code et effectue des modifications directes sur vos fichiers. Il fonctionne avec GPT-4, Claude et d'autres LLMs. Pensez-y comme avoir un pair programmer IA qui peut vraiment ecrire et commiter du code.
Toujours pret quand vous l'etes
Voici ce qui rend WhisperTyping indispensable : votre raccourci est toujours disponible, peu importe ce que vous faites. Que vous revoyiez les modifications d'Aider, testiez votre app ou lisiez le diff, appuyez sur votre raccourci et commencez a parler. Votre prochain prompt est pret avant de revenir au terminal.
Vous voyez quelque chose de problematique dans le diff ? Appuyez sur le raccourci : "En fait, utilise une approche differente pour la gestion des erreurs." Quand vous revenez a Aider, votre pensee est capturee et prete a etre envoyee.
Double-tap pour envoyer
La fonctionnalite que les developpeurs adorent : double-tappez votre raccourci pour appuyer automatiquement sur Entree. Dictez votre prompt et envoyez-le a Aider en un seul geste - completement mains libres.
Un tap simple demarre l'enregistrement. Un double-tap arrete, transcrit et envoie. Pas besoin d'atteindre le clavier. Pas d'interruption de votre flow.
Vocabulaire personnalise
La reconnaissance vocale peut avoir du mal avec les termes techniques. WhisperTyping vous permet d'ajouter votre stack a son vocabulaire :
- Noms de frameworks :
React,FastAPI,Django - Fonctions et classes :
UserService,handleAuth,validateInput - Les noms et conventions specifiques a votre projet
Quand vous dites "mets a jour la classe UserService", il sait exactement ce que vous voulez dire.
Transcription contextuelle avec OCR
WhisperTyping lit votre ecran via OCR. Quand vous regardez du code ou la sortie d'Aider, il voit les memes noms de fonctions, messages d'erreur et variables que vous - et les utilise pour transcrire precisement.
Parfait pour le mode Architect
Le mode architect d'Aider est ideal pour l'entree vocale. Vous decrivez des modifications de haut niveau, et Aider planifie et les implemente :
- "Ajoute l'authentification a tous les endpoints API en utilisant des tokens JWT"
- "Refactorise la couche base de donnees pour utiliser le pattern repository"
- "Cree une couche de cache pour les requetes utilisateur"
Prononcer ces instructions architecturales detaillees est bien plus rapide que les taper.
Pourquoi la voix pour Aider ?
Aider excelle avec des prompts detailles et contextuels. La voix rend facile de fournir ce contexte :
- Expliquez les bugs de facon conversationnelle : "Les tests echouent parce que le mock ne retourne pas le bon format"
- Decrivez les fonctionnalites naturellement : "Ajoute un handler webhook qui traite les evenements Stripe"
- Donnez des conseils d'implementation : "Utilise l'injection de dependances et assure-toi que c'est testable"