Technique et GEO : un prérequis non négociable
Avant même de parler de contenu ou de structure, votre site doit passer un filtre technique. Les LLM ne crawlent pas directement vos pages : ils s'appuient sur des données collectées par des crawlers (Googlebot, CommonCrawl, GPTBot…). Si votre site est techniquement défaillant, il peut tout simplement ne pas être indexé.
La qualité technique est le plancher en dessous duquel aucune optimisation de contenu ne peut compenser.
Les critères techniques essentiels
HTTPS : obligatoire, sans exception
En 2025, un site HTTP est perçu comme non fiable. Les navigateurs affichent des avertissements, les crawlers peuvent le déprioriser. HTTPS est la base minimale de confiance.
Vérification rapide : l'URL de votre site commence-t-elle par https:// ? Un cadenas s'affiche-t-il dans la barre d'adresse ?
Core Web Vitals
Google (et les crawlers qu'il alimente) intègre les Core Web Vitals dans ses signaux de qualité :
| Métrique | Ce qu'elle mesure | Seuil recommandé |
|---|---|---|
| LCP (Largest Contentful Paint) | Vitesse de chargement principal | < 2.5 secondes |
| FID / INP (Interaction to Next Paint) | Réactivité aux interactions | < 200ms |
| CLS (Cumulative Layout Shift) | Stabilité visuelle | < 0.1 |
Un site lent est un site qui sera crawlé moins fréquemment et moins profondément.
Mobile-friendly
Plus de 60% des requêtes sont mobiles. Google est en "mobile-first indexing". Un site non adapté au mobile est pénalisé dans l'indexation, ce qui réduit mécaniquement sa présence dans les données alimentant les LLM.
Test rapide : PageSpeed Insights analyse votre site gratuitement.
Schema.org : parlez la langue des machines
Les données structurées schema.org sont des métadonnées que vous ajoutez à votre HTML pour décrire explicitement votre contenu aux machines. C'est un signal direct pour les LLM.
Les schemas les plus utiles pour le GEO
Article / BlogPosting
{
"@type": "Article",
"headline": "Titre de l'article",
"author": { "@type": "Person", "name": "Prénom Nom" },
"datePublished": "2025-01-15",
"description": "Description de l'article"
}
FAQPage — Pour toutes vos sections FAQ (voir le guide dédié)
BreadcrumbList — Pour la navigation hiérarchique
Organization — Pour identifier votre marque
Robots.txt et crawlabilité
Vérifiez que votre robots.txt n'interdit pas les crawlers des LLM. GPTBot (OpenAI), Google-Extended, PerplexityBot… certains sites les ont bloqués par inadvertance.
Contenu d'un robots.txt permissif :
User-agent: *
Allow: /
User-agent: GPTBot
Allow: /
Erreurs techniques fréquentes qui pénalisent le GEO
- Contenu rendu côté client uniquement (SPA/React sans SSR) — les crawlers peuvent ne pas exécuter le JavaScript
- Images sans attribut
alt— informations perdues pour les LLM - Redirections en cascade (301 → 301 → 301) — perte de signal
- Pages dupliquées sans canonical — dilution de l'autorité
- Temps de réponse serveur > 1s — crawl budget réduit
- Erreurs 404 non corrigées — signal de négligence
Audit technique rapide
Pour un audit rapide de votre qualité technique :
- Google Search Console — Erreurs d'indexation, Core Web Vitals, mobile
- PageSpeed Insights — Performance et suggestions
- Schema Markup Validator — Valider vos données structurées
- microseo.fr — Score GEO global incluant la qualité technique
FAQ
Faut-il un score PageSpeed parfait pour avoir un bon GEO ?
Non. L'objectif est d'être dans les seuils recommandés (LCP < 2.5s, CLS < 0.1). Un score parfait est un bonus, pas une nécessité.
Le JavaScript bloque-t-il les LLM ?
Souvent oui. Les crawlers qui alimentent les LLM n'exécutent généralement pas JavaScript. Un contenu rendu uniquement en JS (SPA sans SSR) risque d'être invisible. Préférez le Server-Side Rendering ou la génération statique.
Mon site WordPress est-il techniquement optimisé par défaut ?
Pas forcément. WordPress de base est correct, mais sans plugin de cache, d'optimisation d'images et de données structurées, votre score technique sera moyen. Yoast SEO, Rank Math ou RankIQ aident sur ce plan.