Charla donde se explica el metodo RIC, una metodología SEO donde desde el análisis del Rastreo, la Indexación y la clasificación (pasando por la "segmentación") se consiguen sacar patrones de mejora en Webs medianas y Grandes.
9. 2 C O S A S A N T E S D E C O N O C E R A …
R I C
AUDITORIA
(Puesta en Marcha)
CONSULTORIA
(Estrategia constante)1
SIMULAR
(Herramientas)
MONITORIZAR
(LOGS)2
11. D E F I N A M O S …
RASTREO INDEXACIÓN CLASIFICACIÓN
El método R.I.C es una metodología pensada para auditar toda la
parte SEO técnica de una web con el fin de obtener todas sus URLs y
clasificarlas según su estado.
ANÁLISIS DE:
12. ¿ Q U É Q U E R E M O S C O N S E G U I R ?
1. OPTIMIZAR EL RASTREO (CRAWL BUDGET).
2. MEJORAR LA INDEXACIÓN.
3. UNIFICAR SEÑALES SIMILARES.
4. SOLVENTAR PROBLEMAS TÉCNICOS.
5. IDENTIFICAR PRIORIDADES.
6. DEFINIR ARQUITECTURA ÓPTIMA.
13. ¿ Q U É P R O B L E M A S
I D E N T I F I C A M O S ?
1. PROBLEMAS DE RASTREO.
2. PROBLEMAS DE INDEXACIÓN.
3. CONTENIDO DUPLICADO.
4. CANIBALIZACIONES.
5. MAL USO DE FILTROS Y PARÁMETROS.
6. MAL USO DE LOS CANONICALS.
7. MAL USO DE META ROBOTS.
8. MAL USO DE ENLAZADO INTERNO.
9. OTROS: BUCLES, REDIRECCIONES, CANONICALIZACIONES, URLS
INCONSISTENTES…
10. MALA DEFINICIÓN DE PRIORIDADES Y ARQUITECTURA.
15. 1 ) P R O B L E M A S D E R A S T R E O
URLS PRIORITARIAS
CERCA DE HOME
URLS + COMPETIDAS
= MÁS ENLACES (OJO
PR)
3 PREMISAS BÁSICA DE ARQUITECTURA WEB….
(teniendo en cuenta que hay que permitir que los crawlers tengan un rastreo eficiente)
MÍNIMOS NIVELES DE
CLICS
(PROFUNDIDAD) (3-5)
19. 2 . C A L C U L A N D O I N T E R A C C I O N E S
( E J E M P L O I D E A L )
+ info: https://netpeaksoftware.com/community/announcement/netpeak-spider-2-1-1-2-internal-pagerank-calculation
20. 2 . C A L C U L A N D O I N T E R A C C I O N E S
( E J E M P L O R E A L / C O M Ú N )
21. 2 . C A L C U L A N D O I N T E R A C C I O N E S
( C A S O R E A L )
22. R E S U M I E N D O L A I N F O R M A C I Ó N …
25. 3 P R I N C I P A L E S P R O B L E M A S
CONTENIDO
DUPLICADO
PERDEMOS
CRAWL BUDGET
DISTRIBUCIÓN DE
PAGE RANK
3 ) S I S T E M A S F A C E T A D O S
26. S O L U C I Ó N 1
NOINDEX EN PÁGINAS
GENERADAS
• PERDEMOS CRAWL BUDGET
• DISTRIBUIMOS PAGE RANK A PÁGINAS NO IMPORTANTES
• LOS NOINDEX NO TIENEN SENTIDO PARA EVITAR DUPLICIDADES
• LAS SEÑALES PUEDEN SEGUIR CONFUNDIENDO A GOOGLEBOT
27. S O L U C I Ó N 2
USO DE CANONICAL
• SOLUCIÓN FAVORITA PARA GOOGLE
• PERDEMOS CRAWL BUDGET
• LA ETIQUETA CANONICAL ES UNA SUGERENCIA “FUERTE”
( por lo que Google te puede indexar facetas si hay otras
señales que así lo indiquen)
28. S O L U C I Ó N 3
BLOQUEO POR
ROBOTS.TXT
• PERDEMOS PAGERANK
• LAS URLS PUEDEN INDEXARSE IGUALMENTE
29. S O L U C I Ó N 4
USO DE ENLACES
NOFOLLOW
• PERDEMOS PAGE RANK
• LAS URLS PUEDEN INDEXARSE IGUALMENTE
• LA DUPLICIDAD SIGUE EXISTIENDO EN CUANTO
GOOGLE ENCUENTRE SEÑALES (siempre y
cuando esas facetas generen esas duplicidades)
30. S O L U C I Ó N 5
AJAX + JQUERY
• NO GENERAMOS URLS
• NO HAY DUPLICIDADES
• NO DISTRIBUIMOS PAGE RANK A PÁGINAS INNECESARIAS
• PERDEMOS OPORTUNIDADES (pero hacemos un mix entre
urls reales con enlaces y este tipo de SOLUCIÓN).
33. H E R R A M I E N T A S Q U E N E C E S I T A M O S
34. E L P R O B L E M A D E “ S Ó L O ”
S I M U L A R
“Sí sólo simulas comportamientos, no
controlarás el 100% de tus implementaciones.”
SIMULAR
MONITORIZAR
37. O B J E T I V O D E G O O G L E
“Google no quiere Perder tiempo
(dinero) en rastrear cosas que sean
irrelevantes.”
38. N E C E S I T A M O S L A S U R L S T O T A L E S
SCREAMING FROG
(SIMULAMOS)1
SCREAMING FROG LOG ANALYSER
(MONITORIZAMOS LOGS)2
GOOGLE ANALYTICS (ORGANIC SEARCH)
(MONITORIZAMOS USERS)3
SITEMAPS
(+ INFO ADICIONAL)4
39. N E C E S I T A M O S L A S
U R L S R A S T R E A B L E S
“Son todas aquellas URLs a las que
Google tiene acceso (a rastrear).”
ROBOTS.TXT
(BLOQUEO)
META ROBOTS
(NOINDEX, NOFOLLOW)
40. R A S T R E A D A S V S N O R A S T R E A D A S
50. E S C E N A R I O F I N A L
“ L A R A D I O G R A F Í A ”
1. TODAS LAS URLS.
2. RASTREADAS / NO RASTREADAS
3. INDEXADAS / NO INDEXADAS
4. CON TRÁFICO / SIN TRÁFICO
5. CANONICALIZACIONES
6. DUPLICADAS
7. RESPONDE MISMA INTENCIÓN DE BÚSQUEDA
8. CÓDIGOS RESPUESTA DIFERENTES DE 200
9. ARQUITECTURA ACTUAL
10. ENLAZADO INTERNO (PRIORIDADES)
51. S I G U I E N T E S P A S O S …
NUEVA ARQUITECTURA DE INFORMACIÓN
(Según importancia: prioridades)1
UNIFICAR URLS
(Canibalizaciones, duplicados, intenciones, etc)2
ELIMINAR / BLOQUEAR URLS IRRELEVANTES
(No tráfico, thin content, Solo para users, etc.)3
MEJORA EL ENLAZADO INTERNO
(Establece prioridades según objetivos por URLs)4
CREAR NUEVOS SITEMAPS
(Sólo de las URLs importantes. OjO canonicals)5
67. P A R A F I N A L I Z A R
“ E L M E J O R T R U C O ”
“Los trucos no existen en SEO. Ni los datos tienen
validez por si mismos. Lo importante no es sacar
datos, sino saber interpretar esos datos y tomar
decisiones según las necesidades del proyecto”.