AI Hub est un projet personnel conçu pour explorer comment un outil unique pourrait centraliser l'ensemble des interactions avec des modèles d'IA — des conversations simples aux workflows d'automatisation complexes.
Toutes les fonctionnalités, les userflows et l'architecture de l'interface ont été définis par mes soins. Le code de l'application a ensuite été généré par Claude (Anthropic), dans une démarche de vibe coding — une approche qui m'a permis de me concentrer entièrement sur l'expérience utilisateur sans contrainte technique.
Aujourd'hui, utiliser l'IA en production signifie jongler entre ChatGPT, Claude, des outils d'automatisation distincts, des bases de données séparées… Chaque outil a sa propre interface, sa propre logique.
Chat, automatisation, agents et données vivent dans des interfaces séparées sans cohérence.
Sans centralisation, les décisions et les données ne circulent pas entre les outils.
Créer des workflows IA complexes reste réservé aux profils techniques.
Monitorer et contrôler des agents autonomes en temps réel est difficile sans dashboard dédié.
Une interface de conversation unique supportant Claude, GPT-4o et Llama en local. Chaque session est configurable en temps réel : modèle, température, accès internet, base de données connectée. Le panneau droit expose les paramètres actifs sans quitter le fil de conversation.
Un éditeur de workflows no-code basé sur ReactFlow. Sept types de nœuds — déclencheur, modèle IA, condition, appel API, outil, validation humaine, fin — permettent de construire des pipelines complets par glisser-déposer. Trois workflows d'exemple préconstruits servent de point de départ.
Quatre agents préconfigurés — veille académique, revue de code, analyse de données, compte-rendus de réunions — s'exécutent en arrière-plan. Un dashboard dédié expose les logs en temps réel, les outils actifs (internet, fichiers, email…) et la timeline des actions effectuées.
Un gestionnaire de sources de données regroupant tables SQL, documents et stores vectoriels. Chaque base indique son statut (actif, sync, hors ligne), le nombre d'entrées et les agents qui l'utilisent. Accessible directement depuis le chat pour ancrer les réponses dans des données réelles.
Ce projet a été l'occasion d'explorer une nouvelle manière de travailler : définir précisément l'expérience — les userflows, les états d'interface, les interactions — puis déléguer l'implémentation à un modèle de langage.
Mon rôle a été de spécifier chaque écran, chaque transition, chaque cas d'usage. Claude a traduit ces specs en code React/TypeScript. Cette approche inverse la relation habituelle entre design et développement et ouvre une vraie question : jusqu'où peut aller un designer qui orchestre plutôt qu'il ne code ?
Navigue dans les quatre modules, teste le builder d'automatisation, explore les agents et les bases de données. Tout est cliquable et fonctionnel.