He visto muchas webs caer de golpe. Y casi siempre pasa lo mismo: el dueño entra en pánico, cambia veinte cosas en un día… y después no sabe qué causó qué.
Lo que te dejo aquí es mi plan estándar: qué hacer en 60 minutos, en 24 horas, en 7 días y en 30 días, con una sección muy clara de qué NO hacer. En resumen, 11 pasos concretos divididos en 4 fases.
Regla de oro: investiga primero, actúa después y evita cambios impulsivos porque pueden empeorar el escenario y te lo digo por experiencia.
- La primera pregunta: ¿Es técnico, algoritmo o competencia?
- Fase 1: primeros 60 minutos (control del daño)
- Fase 2: primeras 24 horas (diagnóstico técnico y seguridad)
- Fase 3: días 2 a 7 (SERP, updates y patrón real)
- Fase 4: días 7 a 30 (recuperación real: contenido + EEAT + estructura)
- Qué NO hacer (si quieres recuperarte en serio)
- Checklist imprimible (mi estándar)
- Preguntas frecuentes sobre caída de tráfico orgnánico
La primera pregunta: ¿Es técnico, algoritmo o competencia?
Antes de tocar nada, tengo que clasificar el problema:
- Técnico: robots, indexación, canonicals, 404/500, redirecciones, migración, DNS/hosting.
- Algoritmo/calidad: Google devalúa por señales de confianza/calidad; toca mejorar contenido, limpiar lo que no aporta y reforzar E-E-A-T.
- Competencia/SERP: otros suben, cambia intención o formato; hay que analizar gaps y ajustar intención.
Fase 1: primeros 60 minutos (control del daño)
1) Confirmo que la caída es real (y no un “bug”)
En GA4:
- Comparo días antes/después
- Reviso si cae solo orgánico o también directo/pago/referral/redes
- Segmento por dispositivo y país
En Search Console:
- Si caen clics e impresiones, suele ser ranking/indexación
- Si impresiones se mantienen y bajan clics, es CTR o cambios de SERP.
Además reviso si hubo cambios recientes: consent mode, etiquetado o tracking.
2) Descarto lo “técnico gordo” de inmediato
Checklist rápido:
- ¿La web carga bien?
- ¿Hubo fallos de DNS/hosting?
- En GSC: Cobertura, Seguridad, Acciones manuales (si hay acción manual o seguridad, es prioridad absoluta).
Fase 2: primeras 24 horas (diagnóstico técnico y seguridad)
3) Paso crawler (Screaming Frog) y busco “asesinos silenciosos”
Reviso:
- robots.txt
- meta noindex
- canonicals
- redirecciones 301
- códigos de respuesta
- errores masivos 404/500
- rupturas típicas post migración o cambios grandes
Si era técnico, el plan es directo: corrijo, pido reindexación y espero unos días sin cambios adicionales.
4) Reviso hackeo / spam (esto se confunde con “update”)
Yo miro la SERP buscando (site:tudominio.com):
- URLs raras
- Contenido en otro idioma
- Páginas desconocidas
- Señales de hackeo
Ojo con el Japan Spam en WordPress, que puede crear miles de URLs y sitemaps falsos en GSC y tirarte el tráfico.
Fase 3: días 2 a 7 (SERP, updates y patrón real)
5) ¿Coincide con update o cambio de SERP?
Si parece update, busco señales externas y patrones (y no entro en cirugía masiva a ciegas). El PDF menciona revisar si aparecieron AI Overviews en el nicho y si cambió la intención.
6) Diagnóstico fino por URLs (no por “sensación”)
Trabajo así:
- En GSC filtro páginas y queries más afectadas
- Agrupo por intención/plantilla/categoría/tema
- Identifico si el golpe es por cluster (solo un tipo de contenido) o es general
Fase 4: días 7 a 30 (recuperación real: contenido + EEAT + estructura)
Cuando descarté lo técnico/seguridad, la recuperación suele ser “de confianza”:
7) Limpieza y poda con criterio (sin destruir el sitio)
El enfoque recomendado: eliminar lo que no aporta y, si hace falta, desindexar contenido de baja calidad para mejorar rastreo/calidad global.
8) E-E-A-T de verdad (no “texto bonito”)
Esto es clave: reforzar con perfiles reales, datos verificables y autores con autoridad.
Y si el nicho lo permite, el método “con esteroides” es demostrar experiencia:
- Fotos reales
- Videos
- Documentación/casos
- Citas a documentos oficiales
- Como si la web fuera un proveedor real
9) Enlazado interno para recuperar rápido
En el plan de “quick wins” aparece empujar enlazado interno desde URLs fuertes hacia las afectadas y ajustar títulos/metas y encabezados HTML cuando hay impresiones pero cae CTR.
10) Enlaces tóxicos: auditar y actuar si hay señales claras
Si detecto nuevos enlaces (backlinks) sospechosos, puedes usar Disavow porque es rápido de ejecutar en ese contexto.
11) Última opción (solo proyectos propios): migrar a dominio/subdominio
Esto no es “plan A”. Se plantea como último recurso, después de limpiar thin content, revisar redirecciones y dejar solo lo que aporta autoridad temática; luego reindexar y esperar rastreo.
Te dejo aquí mi método para recuperar tráfico orgánico cuando ya no quedan más acciones.
Qué NO hacer (si quieres recuperarte en serio)
- No cambies 20 cosas el mismo día. Pierdes el control del diagnóstico y puedes empeorar el problema.
- No ignores Seguridad/Acciones manuales en GSC. Si hay algo ahí, es prioridad absoluta.
- No borres contenido en masa por pánico. Primero clasifica, luego poda con criterio.
- No migres como primera reacción. Es una carta final, no un parche emocional.
Checklist imprimible (mi estándar)
Datos
- Confirmar caída en GA4 (orgánico, dispositivo, país)
- Confirmar patrón en GSC (clics vs impresiones)
- Revisar cambios de tracking/consent
Técnico / Seguridad
- GSC: Cobertura + Seguridad + Acciones manuales
- Screaming Frog: robots/noindex/canonicals/301/404/500/migración
- Revisar URLs raras / otro idioma / señales de hack
Recuperación
- Poda / desindexar lo débil
- Reforzar E-E-A-T con evidencia real
- Optimizar enlazado interno + CTR (títulos/metas)
- Revisar enlaces tóxicos (Disavow si aplica)
Preguntas frecuentes sobre caída de tráfico orgnánico
¿Cuánto tiempo tarda en recuperarse una web tras una caída fuerte?
Depende de la causa. Si es técnico y lo corriges, puedes ver señales en días/semanas; si es algorítmico, suele requerir iteración y paciencia (porque es un tema de confianza, no de “arreglar un switch”).
¿Cómo sé si es un problema de indexación o de CTR?
En GSC: si bajan clics e impresiones, suele ser ranking/indexación; si impresiones se mantienen y bajan clics, normalmente es CTR o cambios en la SERP.
¿Qué reviso primero si sospecho un error técnico?
robots.txt, noindex, canonicals, 301, códigos de respuesta, 404/500 y cualquier ruptura típica tras migraciones.
¿Puede ser hackeo aunque parezca un update?
Sí. El "Japan Spam" puede crear miles de URLs y sitemaps falsos, afectando indexación y tráfico.
¿Qué significa "reforzar E-E-A-T" en acciones concretas?
No es teoría: es demostrar experiencia y confianza con evidencia (perfiles reales, datos verificables, casos, fotos, videos, documentación, fuentes oficiales).
¿Cuándo tiene sentido usar Disavow?
Cuando detectas un cambio raro en el perfil (nuevos enlaces sospechosos) y necesitas una acción rápida para “limpiar señal” mientras trabajas lo demás.


