TUTORIEL · NEUTRE-INFORMATIF
La méthode NicheRadar : 5 sources, 2 gates, 30 jours, 1 verdict
Cette page décrit le processus exact exécuté par NicheRadar. Rien n'est secret. Tu peux reproduire la méthode à la main si tu préfères — ce sera juste beaucoup plus lent.
1. Les 5 sources early
Le système scrute quotidiennement cinq sources qui ont une avance temporelle sur le grand public. Principe : si une niche apparaît sur Reddit généraliste ou Google News, elle est déjà crowded. On vise les signaux en amont.
- GitHub trending (API REST) : nouveaux repos qui accumulent des étoiles rapidement = outils que les développeurs construisent avant que le marché les réclame. 12 à 24 mois d'avance sur les produits commerciaux.
- ArXiv (
cs.AI,cs.CL,cs.LG,cs.CY,cs.IR) : papers des 30 derniers jours. La recherche académique précède la commercialisation de 24 à 36 mois. - Hacker News "Show HN" : builders solo qui lancent. Validation micro par des développeurs critiques.
- Hacker News "Ask HN" : questions récurrentes = demande insatisfaite.
- Reddit business subs (
/r/Entrepreneur,/r/SaaS,/r/startups,/r/indiehackers,/r/sidehustle, etc.) : middle stage mais signal clair de traction.
Chaque item est nettoyé (filtre méta-posts "weekly thread", "promote your business"), enrichi avec les métadonnées natives (topics GitHub, abstract ArXiv), puis passé au classifier.
2. Le classifier (gate n°1)
Quatre axes, score composite sur cent.
Demande (0–1) : max entre le score Reddit (nombre de posts sur un an, commentaires moyens, ratio de questions) et le score Google autocomplete (nombre de suggestions, intention d'achat détectée).
Saturation (0–1) : inverse du score SERP. SERP haute diversité de domaines dans le top 10 = peu saturé. Pénalise la présence de Wikipedia, Amazon, YouTube dans les trois premiers résultats.
Valeur commerciale (0–1) : le facteur dominant. Compte les mots-clés B2B et LTV haute dans l'autocomplete et le seed (notaire, avocat, expert-comptable, freelance, SaaS, PME…). Pénalise les mots-clés B2C saturés (recette, voyage, gaming, news…).
Momentum (−1 à +1) : Google Trends 12 mois, pente entre première et seconde moitié.
La formule dépend du segment détecté (B2B_high_ltv, B2B_medium, B2C_saturated, generic). Un B2B_high_ltv avec demande ≥ 0.4 et saturation ≤ 0.7 démarre avec une base de 70 points. Un B2C_saturated ne peut dépasser 20, quelle que soit la demande.
Seuils : ≥ 65 = jackpot (passe au gate suivant), 45–64 = opportunity (logged, pas de blog), 20–44 = mediocre, < 20 = avoid.
Le classifier a été calibré sur 15 seeds (100 % accuracy) et validé sur un hold-out de 10 seeds jamais vues (80 %). Les erreurs se concentrent sur les cas limites entre opportunity et jackpot — rien de critique.
3. Le monetization finder (gate n°2)
Les niches qui passent le gate n°1 sont analysées sur cinq canaux de monétisation gratuits.
| Méthode | Signal recherché | Score max |
|---|---|---|
| Affiliate search | URLs contenant /affiliate, /partners, /affiliation | 40 |
| Gumroad | Produits digitaux existants + prix moyens | 30 |
| IndieHackers | Posts mentionnant MRR/ARR dans la niche | 20 |
| SERP ads signal | Domaines commerciaux + ads dans les résultats | 25 |
| Sponsor candidates | Newsletters Substack/Beehiiv + podcasts | 20 |
Formule max-signal : le plus haut score compte pour 1.6×, les autres pour 0.35×. Rationale : une niche B2B enterprise peut n'avoir que de l'affiliate fort (enterprise n'est pas sur Gumroad). Le meilleur signal doit dominer. Couplage avec le classifier : un segment B2C_saturated est capé à 20, un B2B_high_ltv reçoit un bonus de +15.
Seuil : ≥ 50 = viable, le blog est créé. En dessous, la niche est archivée dans le pool.
Le monetization finder a été itéré cinq fois avant d'atteindre 86 % de passation correcte sur un bench de sept niches étiquetées.
4. Création du blog
Scaffold automatique via worker seed_blog_site : config.json (niche, keywords, target_domain), templates/ HTML sobre (zéro tracking tiers), un article pillier de 1200 mots minimum, un outil gratuit interactif (calculateur ou filtre), un build.py qui transforme markdown + data + templates en HTML statique, un scraper.py pour la source propriétaire.
Déploiement via Vercel API : le public/ statique est servi sur grâce au wildcard CNAME configuré sur la zone OVH du domaine racine. Coût marginal : zéro euro.
Cadence : un nouveau blog maximum toutes les sept jours (cooldown hardcodé côté manager). Entre deux créations, le système enrichit les blogs existants — articles, scraping, rebuild, déploiement.
5. La phase test (30 jours)
Cadence éditoriale : un article tous les trois jours environ, soit dix articles en trente jours. Chaque article est généré avec rotation aléatoire de format (listicle, deep-dive, comparatif, étude de cas, FAQ, tutoriel, narrative, analyse chiffrée, contre-pied, bilan périodique) et de ton (neutre, critique, tranché, pédagogue) pour éviter les patterns IA détectables par Google depuis les Helpful Content Updates de 2024-2025.
Métriques collectées :
- Nombre d'articles publiés (local, compte les fichiers markdown)
- Nombre d'URLs indexées par Google (proxy : recherche
site:sur DuckDuckGo → nombre de résultats) - Jours depuis le déploiement (timestamp stocké)
- Quand Google Search Console API sera branché : impressions, clics, position moyenne, top queries
6. Le verdict à J+30
Worker monthly_review parcourt tous les blogs en statut testing, mesure, applique les critères :
- Kill :
n_articles < 5OUindexed_count == 0→ statutkilled, post-mortem publié, subdomain archivé. - Promote :
n_articles >= 10ETindexed_count >= 3→ statutready_to_promote, notification Telegram pour que l'humain achète un domaine dédié et lance la migration. - Continue : autres cas, on laisse tourner 15 jours de plus.
7. La migration (ceux qui passent)
Quand un blog passe ready_to_promote, un domaine dédié est acheté (15 €, à la charge du projet, via API OVH ou Namecheap). Worker migrate_blog attache le nouveau domaine au project Vercel existant via l'API, redéploie en production, et configure les redirections 301 du sous-domaine vers le nouveau domaine racine.
L'autorité SEO accumulée pendant les trente jours est transférée par le 301. Le blog passe en phase scaling : cadence éditoriale doublée, outreach pour backlinks, activation des programmes d'affiliation identifiés par le monetization finder.
Ce que la méthode ne capture pas
- L'intuition business. Certaines niches viables sont invisibles pour le classifier (volume faible, pas de footprint anglo-saxon). Un humain les détecterait, pas le système. Piste d'amélioration : entrée manuelle validée par un seed list humain.
- Les réseaux fermés. Discords privés, listes internes, groupes Slack. Sources de signal fort, absentes des scrapers publics.
- Le timing. Le classifier dit "il y a de la demande", pas "c'est le bon moment pour entrer". La deuxième question demande une compréhension macro que le système n'a pas.
Le pipeline n'est donc pas un oracle. C'est un filtre. Il élimine 80 % des fausses pistes et surface des candidats non évidents à creuser.