Pourquoi le SEO technique est-il le socle de toute stratégie SEO ?

Sans fondations techniques solides, le meilleur contenu du monde restera invisible. En 2026, avec l’indexation mobile-first, Google SGE, les AI Overviews et l’importance croissante des Core Web Vitals, le SEO technique est plus crucial que jamais.

Ce qu’est le SEO technique (et ce qu’il n’est pas)

Dimension SEO technique SEO On-Page SEO Off-Page
Cible Moteurs (crawl, indexation) contenu et balises Autorité et popularité
Actions Robots.txt, sitemap, CWV, HTTPS Titres, H1, contenu, images Backlinks, relations presse
Outils Screaming Frog, GSC, Lighthouse Yoast, RankMath Ahrefs, SEMrush
Impact Fondation : sans ça, rien ne marché Visibilité et pertinence Confiance et autorité

5 chiffres qui montrent l’importance du SEO technique en 2026

Chiffre Source Implication
60 % dès recherches se terminent sans clic Semrush 2025 L’indexation et le rich snippet sont vitaux
Les sites avec bon CWV convertissent 20 % mieux Portent performance = chiffre d’affaires
Googlebot alloue un budget de crawl limité par site Google Chaque URL non optimisée gaspille une ressource précieuse
34 % dès pages auditées ont dès erreurs de balises title Screaming Frog Des erreurs simples mais massives
Le mobile-first indexing est la norme depuis 2024 Google Un site non responsive = un site invisible

Ce que vous allez découvrir dans cet article

  • Les 8 piliers du SEO technique détaillés étape par étape
  • Comment optimiser le crawl, l’indexation et le budget de crawl.
  • La checklist complète des balises techniques (title, meta, canonical, noindex)
  • Guide complet des données structurées schema.org
  • Core Web Vitals : les correctifs qui marchent vraiment
  • SEO JavaScript : comment gérer React, Vue et Next.js
  • Une checklist de 30 points à vérifier chaque mois
  • Les outils gratuits et payants pour auditer votre SEO technique

pilier 1 : Indexation et crawl : les fondations

Comprendre le crawl de Googlebot en 2026

Googlebot explore le web en suivant les liens. Chaque site reçoit un budget de crawl limité : Google ne peut pas explorer toutes vos pages chaque jour. Votre objectif est d’optimiser ce budget pour que Google explore prioritairement vos pages importantes.

Optimiser son fichier robots.txt

Le fichier robots.txt est la première chose que Googlebot lit en arrivant sur votre site. Une erreur peut bloquer tout votre site.

Vérifications essentielles :
– Ne pas bloquer les ressources CSS/JS (sinon Google voit une page vide)
– Ne pas bloquer accidentellement des pages stratégiques.
– Vérifier avec le testeur robots.txt dans Google Search Console
| erreur fréquente | Symptôme | Correction |
|——————|———-|————|
| Disallow: / sur tout le site | Aucune page indexée | Supprimer la ligne ou cibler dès dossiers précis |
| Disallow: /wp-admin sans /wp-admin/admin-ajax.php | Google peut explorer dès fichiers sensibles | Ajuster les règles |
| Absence de référence au sitemap | Google doit découvrir le sitemap seul | Ajouter Sitemap: https://exemple.com/sitemap.xml |

Créer et soumettre un sitemap XML

Le sitemap XML est la liste officielle des pages que vous souhaitez voir indexées. Il aide Google à découvrir vos pages plus rapidement, surtout pour les sites récents, les pages profondes ou les sites avec du contenu dynamique.

Bonnes pratiques :
– Inclure uniquement les pages à indexer (pas les pages d’administration, pagination, résultats de recherche)
– Prioriser les pages importantes avec la balise <priority>
– Mettre à jour le sitemap à chaque nouvelle publication
– Soumettre via Google Search Console
– Limiter à 50 000 URLs max par sitemap (créer des sitemaps index si besoin)

Gérer le crawl budget

Le crawl budget, c’est le nombre d’URLs que Googlebot explore sur votre site à chaque visite. Il dépend de la popularité de votre site et de sa santé technique.

Facteurs qui gaspillent le crawl budget :
| Facteur | Impact | Solution |
|———|:——:|———-|
| URLs paramétrées (filtres, tri, tracking) | Élevé | Paramètres dans GSC + nofollow/nocrawl |
| Pagination de catégories (page 2, 3, 4…) | moyen | Bloquer dans robots.txt si pas de valeur SEO |
| Erreurs 404/410 internes | Faible | Corriger les liens cassés |
| Redirections en chaîne | Élevé | Nettoyer les redirections inutiles |
| Pages orphelines | Faible | Ajouter dès liens internes |

Analyse des logs serveur

Les logs serveur sont la source la plus fiable pour comprendre comment Google explore réellement votre site. Contrairement aux simulateurs (Screaming Frog), les logs montrent le comportement réel du bot.

Métriques clés :
– Ratio crawl / budget alloué : Google utilise-t-il bien son budget ?
– Pages les plus crawlees : Google priorise-t-il les bonnes pages ?
– Pages non crawlees depuis 30 jours : signe d’abandon par Google
– Erreurs HTTP vues par Google : Google voit des erreurs que vous ignorez.

Outils d’analyse de logs :
| Outil | Fonction | Prix |
|——|———-|:—-:|
| GoAccess | Terminal, open-source | gratuit |
| Screaming Frog Log Analyzer | Analyse simplifiée | Licence payante SF |
| ELK Stack | solution complète | gratuit (infra nécessaire) |
| Python + pandas | Sur-mesure | gratuit |

Taux de couverture dans GSC

Le rapport de couverture (Index Coverage) de Google Search Console vous montre l’état d’indexation de toutes vos pages connues de Google. C’est le tableau de bord nᵒ 1 du SEO technique.

Les 4 catégories :
| Catégorie | Action requise |
|———–|—————-|
| Pages indexées | Vérifier la qualité et les performances |
| Pages non indexées (découvertes) | Demander l’indexation dans GSC |
| Pages exclues (noindex, canonical) | Vérifier si intentionnel |
| Erreurs (404, 500, soft 404) | Rediriger, corriger ou restaurer |


Pilier 2 : structure du site et architecture

Arborescence SEO-friendly

L’architecture de votre site doit être logique, hiérarchique et facilement crawlable. Google et les utilisateurs doivent pouvoir naviguer intuitivement.

Règle d’or : maximum 3 clics depuis la page d’accueil jusqu’à n’importe quelle page du site. Au-delà, Google explore moins et l’utilisateur abandonne.

SEO Technique : seo technique - Illustration SEO SEO Technique

URLs propres et optimisées

Une URL SEO-friendly doit être :
– Courte (< 60 caractères)
– Descriptive (contient le mot-clé principal)
– Sans paramètres inutiles
– En minuscules avec dès tirets (pas d’underscores)
– Stable dans le temps (pas de changement sans redirection 301)

Bonne URL Mauvaise URL
exemple.com/audit-seo-complet/ exemple.com/page.php?id=123&cat=5
exemple.com/blog/stratégie-contenu-seo/ exemple.com/index.php?p=456&utm_source=fb

Profondeur de page et navigation

La profondeur de clic impacte directement le PageRank distribué par le maillage interne. Les pages profondes (> 3 clics) reçoivent moins d’autorité et sont moins explorées.

solutions :
– Fil d’Ariane (Breadcrumb) sur toutes les pages
– Menu principal structuré avec lien vers les pages importantes
– Pages piliers qui centralisent les liens vers les articles satellites
– Footer avec liens vers les pages stratégiques

Éviter les pages orphelines

Une page orpheline est accessible directement via son URL mais n’à aucun lien interne pointant vers elle. Google la découvre via le sitemap mais lui accorde moins d’importance. Identifiez-les avec Screaming Frog en mode crawl + liste d’URLs et ajoutez dès liens internes depuis dès pages pertinentes.


Pilier 3 : Balises techniques essentielles

Balise title : la plus importante

La balise title est le premier critère que Google utilise pour comprendre le sujet d’une page. Elle s’affiche dans les SERP et influence fortement le CTR.

Bonnes pratiques 2026 :
– longueur : 50-60 caractères (Google tronque au-delà)
– Unique sur tout le site (pas de title dupliqué)
– Mot-clé principal en début de title
– Format : Mot-clé principal | Marque ou Mot-clé : précision | Marque
– Ne pas bourrer de mots-clés (keyword stuffing).

Bon title Mauvais title
<à href=”https://davidsome.com/audit-seo-complet/”>Audit SEO</à> complet 2026 <à href=”https://davidsome.com/audit-seo-complet/”>Audit SEO</à>
Guide stratégie contenu SEO Accueil

Meta description : au-delà du clic

Bien que Google déclare que la meta description n’est pas un facteur de classement direct, elle influence le CTR, et le CTR influence indirectement le classement. En 2026, Google peut aussi utiliser la meta description dans les AI Overviews.

Recommandations :
– 130-158 caractères
– Contient le mot-clé principal
– Inclut un bénéfice ou un chiffre clé
– Termine par un mini-CTA implicite.
– Unique par page

Balise canonique : éviter le contenu dupliqué

La balise canonical (rel=”canonical”) indique à Google quelle version d’une page est l’originale et doit être indexée.

Erreurs fréquentes :
– Canonical inexistant alors que du contenu similaire existe (variantes produit, paramètres d’URL)
– Canonical vers une page 404 → Google ignore votre canonical
– Canonical vers l’URL www si le site force non-www (ou l’inverse)
– Canonical auto-référencé correct (recommandé sur toutes les pages)

Balises noindex, nofollow, noarchive

  • noindex : demande à Google de ne pas indexer la page (ex : page “Merci”, page de connexion)
  • nofollow : demande à Google de ne pas suivre les liens de la page (ex : commentaires, publicités)
  • noarchive : Demande à Google de ne pas mettre en cache la page
  • nofollow sur un lien = Google ne transmet pas de PageRank via ce lien

Astuce : utilisez meta robots pour les directives générales de la page et rel="nofollow" pour les liens individuels.

Balises H1-H6 : hiérarchie et cohérence

Chaque page doit avoir exactement 1 balise H1, qui correspond au titre principal (généralement le même que le title mais peut être plus long). Les H2, H3, etc. structurent le contenu en sous-parties.

Règles :
– 1 unique H1 par page
– Hiérarchie logique : H1 > H2 > H3 (ne pas sauter de niveau)
– Les H2/H3 doivent contenir les mots-clés secondaires.
– Ne pas utiliser de Hx pour le design (utiliser CSS).


Pilier 4 : Données structurées schema.org

Quels schémas mettre en priorité en 2026 ?

Les données structurées sont devenues un levier SEO majeur, pas seulement pour les rich snippets mais aussi pour le GEO (être cité par les AI Overviews).

SEO Technique : core web vitales mobile - Illustration SEO SEO Technique

/p>

type schéma Pages concernées Visibilité obtenue Priorité
Article Pages de blog Rich snippet + AI Overviews P0
FAQPage Pages FAQ (7+ questions) Rich snippet + AI Overviews P0
HowTo Guides et tutoriels Rich snippet + AI Overviews P1
Product Fiches e-commerce Rich snippet étoiles + prix P0 (e-com)
LocalBusiness Pages locales Google Maps + AI Overviews locaux P0 (local)
BreadcrumbList Toutes pages Fil d’Ariane enrichi P1
Organization Page d’accueil Logo dans les SERP P1
Review Avis et témoignages Rich snippet étoiles P1

Comment valider ses données structurées

Outils de validation :
Google Rich Results Test : Teste une URL
schéma.org Validator : Valide le code
– Google Search Console > rapport des rich snippets : Erreurs sur les pages indexées

Erreurs fréquentes et corrections

erreur Conséquence Correction
FAQ sans question visible dans la page S辡ction par Google La question FAQ doit être visible dans le texte
Plusieurs Product schéma sur une même page Google ne sait pas quel produit prioriser Un seul Product schéma par page
URL d’image absente ou invalide schéma ignoré Vérifier les URLs absolues valides
type de schéma non pertinent (ex : Event sur une page statique) schéma ignoré Utiliser le schéma adapté au contenu

Impact sur les rich snippets et AI Overviews

En 2026, les données structurées ne sont plus optionnelles. Google SGE utilisé les schémas pour comprendre la structure de votre contenu et décider s’il est cité dans les AI Overviews. Les pages avec FAQ schéma sont 3x plus susceptibles d’apparaître dans les AI Overviews (Search Engine Land, 2025).


Pilier 5 : Core Web Vitals et performance technique

Les 3 métriques clés en 2026

Métrique Description Cible Outil de mesure
LCP (Largest Contentful Paint) Temps d’affichage du plus grand élément visible < 2,5 s PageSpeed Insights, CrUX
INP (Interaction to Next Paint) Réactivité aux interactions clic/tap/clavier < 200 ms Chrome UX Report, Lighthouse
CLS (Cumulative Layout Shift) Stabilité visuelle pendant le chargement < 0,1 PageSpeed Insights, CrUX

Correctifs par métrique

LCP (> 2,5 s) : les solutions qui marchent
| Action | Impact | Effort |
|——–|:——:|:—–:|
| Optimiser les images (WebP, compression 80 %) | Très élevé | Faible |
| Réduire le temps de réponse serveur (< 200 ms) | Très élevé | Moyen |
| Supprimer les scripts bloquants (render-blocking) | Élevé | moyen |
| Utiliser un CDN | Élevé | Faible |
| Précharger la police principale (font-display: swap) | moyen | Faible |
| Implémenter le lazy loading pour les images sous la ligne de flottaison | moyen | Faible |

INP (> 200 ms) :
– Réduire le JavaScript non utilisé (code splitting)
– Éviter les long tasks (> 50 ms)
– Déférer les scripts non critiques
– Utiliser requestAnimationFrame pour les animations

CLS (> 0,1) :
– Définir les dimensions explicites (width + height) sur toutes les images et iframes
– Réserver l’espace pour les encarts publicitaires
– Utiliser font-display: swap pour les polices web
– Éviter d’injecter du contenu au-dessus du contenu existant

Outils de mesure

Outil Utilisation gratuit
PageSpeed Insights Analyse d’une URL Oui
Chrome UX Report Données terrain réelles Oui
Lighthouse (Chrome DevTools) Analyse locale Oui
Web Vitals Extension Monitoring en temps réel Oui
DebugBear Monitoring continu Payant (essai gratuit)

WordPress : plugins de performance

Plugin fonction Prix Impact CWV
WP Rocket Cache, minification, CDN 59 €/an Très élevé
Imagify / ShortPixel Compression images gratuit/payant Élevé
Perfmatters Désactivation scripts inutiles 24,95 €/an Élevé
Asset CleanUp Désactivation CSS/JS par page gratuit/payant moyen
Flying Press Cache avancé + optimisation Payant Élevé

Pilier 6 : Sécurité et mobile-first

HTTPS : certificat, mixed content

Depuis 2018, HTTPS est un facteur de classement. En 2026, un site sans HTTPS est simplement exclu de l’index. Vérifiez :
– Que le certificat SSL est valide (pas expiré)
– Qu’il n’y à pas de mixed content (ressources HTTP chargées sur une page HTTPS)
– Que les redirections HTTP → HTTPS sont en place (301 permanente).

Comment détecter le mixed content : Ouvrez les Chrome DevTools > Console. Toute erreur de type “Mixed Content” doit être corrigée en remplaçant les URLs HTTP par HTTPS.

Mobile-first indexing : vérifier sa compatibilité

Depuis 2024, Google utilise exclusivement la version mobile de votre site pour l’indexation et le classement. Si votre version mobile à moins de contenu que la version desktop, vous perdez du trafic.

Test de compatibilité mobile :
– Google Mobile-Friendly Test : https://search.google.com/test/mobile-friendly
– Google Search Console > rapport “Mobile Usability”
– Chrome DevTools > Mode responsive

Points à vérifier :
– [ ] Le contenu mobile est identique au contenu desktop (mêmes textes, images, liens)
– [ ] Les polices sont lisibles sans zoom (taille minimale : 16 px).
– [ ] Les boutons et liens ont une taille tactile suffisante (48 x 48 px minimum)
– [ ] Pas de pop-ups intrusifs qui couvrent tout l’écran.
– [ ] Le défilement est fluide, pas de blocage horizontal.


Pilier 7 : SEO JavaScript et rendu

Googlebot et JavaScript : comment ça marche

Googlebot exécute le JavaScript mais avec des limitations :
Budget de crawl réduit : Google doit allouer du temps pour exécuter le JS
Délai de rendu : Google peut attendre plusieurs jours entre le crawl et le rendu JS
Erreurs JS : Si le JavaScript plante, Google indexe une page blanche.
contenu dynamique : Le contenu chargé via API après le rendu initial peut ne pas être visible.

SSR vs CSR vs hybride

Approche Description SEO performance
CSR (Client-Side Rendering) React/Vue pur, tout est rendu dans le navigateur Faible (Google doit exécuter le JS) Variable
SSR (Server-Side Rendering) Next.js/Nuxt, le HTML est généré côté serveur excellente (Google voit le HTML directement) Bon
SSG (Static site Generation) Pages HTML générées à la build excellente excellente
Hydratation partielle SSR + interactions côté client excellente Très bon

recommandation : Pour un site SEO, utilisez Next.js (SSR/SSG) ou Nuxt plutôt qu’une SPA React/Vue classique (Create React App, Vite sans SSR).

Test de rendu Google Search Console

  • Google Search Console : “Afficher l’URL telle que Google l’à vue”
  • Si Google voit une page blanche ou du contenu manquant, votre site JS à un problème sérieux.
  • Testez avec curl -H "User-Agent: Googlebot" https://votresite.com : le HTML rendu doit contenir tout le texte visible.

Bonnes pratiques d’indexation du JS

  • Utiliser le rendu côté serveur (SSR) ou la génération statique (SSG) pour le contenu principal
  • Implémenter le skeleton loading pour améliorer le LCP perçu
  • Éviter le lazy loading excessif du contenu principal
  • Utiliser rel="preload" pour les ressources critiques
  • Tester chaque mise à jour JS avec l’URL Inspection de GSC

pilier 8 : Redirections et gestion des erreurs

Chaînes de redirection : les éviter

Une chaîne de redirection est une séquence du type A → B → C. Chaque saut ralentit Googlebot, dilue le PageRank et peut empêcher Google d’atteindre la page finale.

Règle : idéalement 0 redirection. Maximum 1 redirection par URL (A → B, stop). Au-delà, nettoyez.<

SEO Technique : optimisation core web vitals - Illustration SEO SEO Technique

Codes de redirection : quand les utiliser

Code type Usage SEO
301 Permanente Changement d’URL définitif Transmet la majorité du PageRank
302 Temporaire Page en maintenance, A/B testing Ne transmet pas le PageRank
307 Temporaire (HTTP/1.1) Idem 302 mais conserve la méthode HTTP Comme 302

Pages 404 : les gérer correctement

Les 404 sont normales (un produit supprimé, une page dépubliée). Mais les 404 internes (liens cassés dans votre propre site) sont un problème : elles gaspillent le budget de crawl et frustrent l’utilisateur.

Bonnes pratiques :
– Page 404 personnalisée avec recherche, menu et lien vers l’accueil
– Rediriger les anciennes URLs vers dès pages alternatives pertinentes (301)
– Utiliser un crawler (Screaming Frog) pour détecter les 404 internes.
– Configurer des alertes GSC pour les nouvelles 404.

Erreurs 500

Les erreurs serveur 500 sont critiques : Google ne peut même pas tenter d’indexer la page. Si Google rencontre trop de 500, il peut réduire son budget de crawl pour votre site.

Causes fréquentes :
– Mise à jour PHP/WordPress sans test préalable
– Plugin incompatible avec la version de PHP
– Base de données saturée
– Cache corrompu


Checklist SEO technique ultime : 30 points à vérifier

Crawl et indexation

  • [ ] robots.txt ne bloque pas de pages stratégiques
  • [ ] Sitemap XML valide et soumis dans GSC
  • [ ] Aucune erreur 404 sur les pages importantes
  • [ ] Taux d’indexation > 80 %
  • [ ] Budget de crawl optimisé (pas d’URLs inutiles)
  • [ ] Paramètres d’URL configurés dans GSC
  • [ ] Pages noindex justifiées (pas d’erreur)

Architecture et technique

  • [ ] URLs propres et descriptives
  • [ ] Pas de chaîne de redirection > 1 hop
  • [ ] HTTPS valide sans mixed content
  • [ ] Fil d’Ariane présent sur toutes les pages
  • [ ] Pas de page orpheline (sauf intentionnel)
  • [ ] Mobile-friendly test réussi

Balises et contenu

  • [ ] Title unique et optimisé sur chaque page
  • [ ] Meta description unique sur chaque page
  • [ ] H1 unique par page
  • [ ] structure H1 > H2 > H3 logique
  • [ ] Balises canoniques correctes (auto-référencées)
  • [ ] Données structurées valides (Article, FAQ, etc.)

performance

  • [ ] LCP < 2,5 s
  • [ ] INP < 200 ms
  • [ ] CLS < 0,1
  • [ ] Images optimisées (WebP, compression)
  • [ ] Cache navigateur et serveur actifs
  • [ ] CDN configuré pour les assets statiques
  • [ ] JavaScript non bloquant

SEO avancé

  • [ ] Balises hreflang correctes (si multilingue)
  • [ ] Googlebot voit le contenu JS correctement (si SPA/SSR)
  • [ ] Core Web Vitals passent sur mobile ET desktop
  • [ ] Pas d’erreur dans Google Search Console > Index Coverage

Outils pour le SEO technique

Outil fonction principale Prix Points forts
Screaming Frog Crawl complet du site gratuit/payant Le plus complet, analyse tout
Google Search Console Indexation, performances, CWV gratuit Données officielles Google
PageSpeed Insights Analyse LCP, INP, CLS gratuit Recommandations Google
Ahrefs Webmaster Tools Crawl + backlinks gratuit Analyse backlinks incluse
Sitebulb Audit visuel avec priorisation Payant Priorisation automatique P0-P3
DebugBear Monitoring continu CWV Payant Historique et alertes
schéma.org Validator Validation données structurées gratuit Conforme aux standards
GTmetrix Analyse performance détaillée gratuit/payant Waterfall + historique

Conclusion

Un site techniquement sain, c’est 50 % du travail SEO fait. Le reste, c’est du contenu et dès liens. En 2026, avec Google SGE, les AI Overviews et l’indexation mobile-first, les fondations techniques sont plus que jamais le prérequis n°1 de toute stratégie SEO.

Les 5 actions prioritaires à réaliser ce mois-ci

  1. Auditer votre robots.txt et sitemap : Vérifiez que Google peut explorer et trouver toutes vos pages importantes
  2. Corriger les titres dupliqués : utilisez Screaming Frog pour identifier et corriger les titres non uniques
  3. Optimiser vos Core Web Vitals : Commencez par le LCP (images + serveur), c’est le plus impactant
  4. Installer les données structurées : Au minimum Article schéma sur les articles et FAQ schéma sur les pages FAQ
  5. Vérifier votre mobile-first : Testez sur Google Mobile-Friendly Test et corrigez les erreurs mobiles

Vous souhaitez un diagnostic complet de votre SEO technique ? Découvrez mon audit SEO complet qui couvre l’ensemble dès 8 piliers présentés dans cet article. En tant que consultant SEO spécialiste technique, je vous accompagne dans l’optimisation de votre site. Contactez-moi pour un diagnostic gratuit de vos performances techniques.


FAQ SEO technique

Quels sont les éléments clés du SEO technique ?

Les 8 piliers : crawl/indexation, architecture, balises, données structurées, Core Web Vitals, sécurité/mobile, JavaScript SEO, redirections. Chaque pilier contribue à la santé technique du site.

Comment améliorer son crawl budget ?

Bloquez les URLs inutiles (filtres, paramètres, pagination), optimisez le sitemap, corrigez les erreurs 404 et réduisez les chaînes de redirection. Google alloue plus de budget aux sites sains.

À quelle fréquence vérifier son SEO technique ?

Audit complet tous les 3-6 mois. Monitoring continu via GSC (quotidien pour l’indexation et les erreurs). Vérification dès CWV après chaque mise à jour majeure.

Quels outils pour auditer le SEO technique ?

Screaming Frog (crawl), Google Search Console (indexation + CWV), PageSpeed Insights (performance), Ahrefs Webmaster Tools (gratuit), Sitebulb (audit complet).

Qu’est-ce que le JavaScript SEO ?

C’est l’optimisation des sites construits avec JavaScript (React, Vue, Angular) pour que Googlebot puisse explorer, rendre et indexer correctement leur contenu. Essentiel pour les sites modernes.

Comment valider ses données structurées ?

Utilisez Google Rich Results Test (par URL) ou Schema.org Validator (par code). Vérifiez aussi le rapport “Rich snippets” dans Google Search Console pour les pages indexées.

Le SEO technique est-il réservé aux développeurs ?

Non. Les aspects stratégiques (audit, priorisation, plan d’action) relèvent du consultant SEO. Le développeur implémente les correctifs. Un bon SEO technique nécessite une collaboration entre les deux.