Google API: mis aprendizajes de la filtración que cambió el SEO
El 5 de mayo del 2024 los pilares del SEO se sacudieron por la filtración de documentación de la API de Google desde dentro de su propia división de búsqueda.
Esto es muy, pero muy serio.
Verás: La mayoría de las tácticas asociadas al SEO (optimización para motores de búsqueda) se obtuvieron gracias a la experimentación.
Esto se da porque nadie sabe cómo funciona Google con exactitud (excepto ellos mismos). Es, posiblemente, uno de los secretos empresariales más sensibles de Alphabet.
A medida de que Google ganaba participación de mercado en sus inicios, más personas se interesaban en encontrar hacks que les permitiesen posicionarse mejor en los resultados.
Eso, que a principio fue un grupo de entusiastas experimentando, fue creciendo hasta volverse una industria y parte fundamental del marketing digital.
En ese camino de crecimiento apareció un personaje fantástico: Rand Fishkin.
Su aporte al ecosistema del SEO es invaluable. Es el fundador de MOZ, una de las primeras plataformas para hacer SEO, incluso más antigua que gigantes como SEMrush y Ahrefs.
Seguramente es por eso que la filtración fue a parar donde él, pero no es hasta el 27 de mayo que Rand decide hacerla pública, después de verificar su autenticidad con ex empleados de Google y otras fuentes.
Bien, espero que conectes conmigo sobre la importancia, relevancia y sensibilidad de lo que ocurrió. Es, prácticamente, un antes y después para el SEO.
¿Qué tipo de documentación se filtró?
Fueron documentos que explicaban el funcionamiento de la API de contenido de Google.
Para explicarlo mejor: un API (interfaz de programación de aplicaciones) es una herramienta que permite que diferentes aplicaciones se comuniquen entre sí.
Imagina que es como un menú de restaurante: el menú (API) te muestra qué platos (funciones) puedes pedir (usar) y cómo pedirlos (cómo interactuar con ellos).
A través de esta documentación se conoció con veracidad cómo funciona una parte de Google y cómo algunos factores impactan en el posicionamiento, algo que hasta ahora solo se podía asumir.
Fueron más de 2.500 páginas de documentación de la API que contienen 14.014 atributos (características de la API) que parecen provenir del “Content API Warehouse” interno de Google. Basado en el historial de commits del documento, este código fue subido a GitHub el 27 de marzo de 2024 y no fue eliminado hasta el 7 de mayo de 2024.
Vaya locura.
Si quieres conocer más sobre la filtración en sí, te recomiendo leer estas dos publicaciones de Rand:
- An Anonymous Source Shared Thousands of Leaked Google Search API Documents.
- The Google API Leak Should Change How Marketers and Publishers Do SEO.
Mis primeros aprendizajes
Esto es lo que voy aprendiendo gracias a esta filtración:
Google nos miente descaradamente
Google nos aseguró a través de los años que no existe algo como la “Autoridad de dominio”, que no utilizan datos de uso de Chrome o Android como señales de SEO, y que la edad del dominio no tiene ningún impacto en el posicionamiento. Resulta que la filtración comprueba que estas afirmaciones eran incorrectas.
La calidad del contenido importa (lo siento por la IA)
Cuando se presentó ChatGPT fue imposible dejar de pensar en sus capacidades para crear contenido. De hecho, se crearon varias herramientas que a partir de un keyword generan cientos y hasta miles de publicaciones para blogs en minutos. La filtración demuestra que esta no es una estrategia inteligente y que no va a funcionar. Si alguien mira tu página y vuelve a Google en menos de 10 segundos, es una señal negativa y hasta podrían penalizarte. Si la persona regresa a Google después de 10 minutos (o no regresa nunca) es una buena señal y mejora tu posicionamiento.
La calidad de los backlinks importa
Google nos mintió (pero no en todo). Resulta que no tomaban únicamente los datos de Google Analytics para sus análisis (algo que sí comentaron en su momento) sino que comenzaron a usar otros productos. Chrome, de hecho, fue creado para tener más señales de navegación. Una de estas señales es la cantidad de clics que un enlace recibe, por lo tanto, si usas backlinks que no reciben clics, se transforma en una señal débil. Por el contrario, un backlink que recibe tráfico constante es una señal poderosa para tu posicionamiento. Y esto abre una pregunta: ¿Qué tan efectivos son, en general, los servicios que venden backlinks?
¿Se puede contratar personas que hagan clic en mis backlinks?
En teoría es posible. De hecho, Rand hizo algunos experimentos probando que si bien es viable inflar la cantidad de clics que un backlink recibe y así impactar positivamente en el posicionamiento, es necesario que estos clics los hagan personas reales, no bots con un par de proxies. Considerando que necesitas miles de clics para mover la aguja en Google, posiblemente es una táctica que en la práctica, no tiene sentido.
Los datos de uso de Google Chrome importan
La única motivación que tuvo Google para crear un navegador es recibir los datos de uso para aplicarlos a su buscador, en especial los datos de los clics que dan los usuarios. Esto hace más difícil que una fábrica de bots pueda afectar el posicionamiento con tácticas black hat. Por otro lado, es necesario invertir en UX y tácticas que promuevan las interacciones y clics.
Encuentra tu nicho o muere
Si quieres competir con marcas o medios grandes, es casi imposible que logres posicionarte. Google le da mucha importancia a cosas como la antigüedad del dominio y el historial de búsquedas. Si tu contenido es demasiado general, pasará desapercibido. Si te especializas lo suficiente (y cada vez más profundo) tienes más oportunidades de recibir tráfico orgánico.
Las métricas a nivel de sitio son relevantes
Las métricas que se relacionan a todo el sitio en lugar de páginas individuales generan autoridad y ayudan al posicionamiento. Por ejemplo:
- La consistencia y relevancia de los títulos (una vez más los clics importan).
- La tasa de rebote y el tiempo de permanencia en el sitio.
- La calidad y distribución de todos los backlinks.
- La frecuencia de publicación de nuevo contenido y de actualización del antiguo. Me hizo pensar: ¿Cuál es la frecuencia de publicación ideal?
Autores expertos
Google da prioridad al contenido creado por autores con experiencia y autoridad en su campo. No se especifica cómo se mide esa autoridad, pero mi mayor apuesta es a factores como:
- Participación y engagement en redes sociales.
- Cantidad de citas en publicaciones importantes, como periódicos.
- Participación en videos, podcasts, etc.
Una buena idea es invitar a autores externos que tengan esta autoridad a participar en tu blog.
Solo asegúrate que tus publicaciones tengan un widget que de información sobre el autor.
Pesos de las señales
Todas estas señales se comprobaron que son reales. Sin embargo, el documento no especifica el peso de cada una. No podemos saber si, en efecto, alguna por sí sola es capaz de impactar el posicionamiento más que otra.
Base de datos de la filtración
2.500 páginas y 14.014 atributos son difíciles de analizar. Hay muchísima gente que está publicando sus aprendizajes y análisis en blogs y redes sociales, pero aún así es difícil mantener el ritmo.
Estoy seguro que estamos a muy poco que alguien entrene una IA con la información de esta filtración, pero mientras tanto ya hubo alguien que creó un sitio web que clasifica muy bien los documentos.
Aquí puedes consultar cada endpoint con su respectiva explicación generada por IA: 2596.org.
Que lo disfrutes.