Mobile Website Speed Testing Tool

¿Tu sitio está preparado para dispositivos móviles?

Nueve de cada diez personas abandonarán un sitio web para móviles si no lo logran ver, de modo inmediato, lo que están buscando.

Y esto, por supuesto, impactará en las conversiones del sitio.

Las personas utilizan hoy—más que nunca en la historia—información que es suministrada a través de los smartphones. Y todo el mundo quiere la información ¡ahora…!

En este escenario, un sitio perderá sus clientes según las siguientes causas:

  1. la velocidad del sitio no es buena; el sitio web no carga
  2. el sitio web no es compatible con dispositivos móviles
  3. el usuario no encuentra lo que está buscando

Si el sitio web no carga, el usuario abandona la página y reformula su búsqueda.

Si el sitio web carga pero no es compatible con dispositivos móviles el usuario no intenta siquiera navegar el sitio.

Si el sitio web carga y es compatible con dispositivos móviles pero el usuario tiene una mala experiencia y no logra encontrar lo que está buscando ¡adiós para siempre!

Con esto en mente y de cara a ofrecer soluciones a los pequeño negocios, Google introduce una nueva herramienta que medirá el comportamiento del sitio web.

Herramienta de comprobador de sitios web

Se trata de Mobile Website Speed Testing Tool, esta herramienta ofrece resultados de las mediciones bajo 3 aspectos:

  • optimización para móviles
  • velocidad de la página en dispositivos móviles
  • velocidad de la página en equipos de escritorio

Lo interesante de la aplicación web es que más allá de ofrecer resultados brinda soluciones; ya que luego de llevar a cabo las pruebas es posible recibir recomendaciones a vuelta de correo en menos de 24 hs.

Mobile Website Speed Testing Tool

La siguiente imagen forma parte del informe que Google envía a tu cuenta de correo con las recomendaciones para mejorar la experiencia de usuario cuando visita tu sitio web con un dispositivo móvil.

informe sobre el sitio web

Siguiendo el slogan de Google:

el mundo está yendo hacia los dispositivos móviles, es tu turno

Sitio web | Mobile Website Speed Testing Tool

8 tareas que debes hacer al lanzar tu sitio Web

Llevar a cabo tareas mediante listas previamente confeccionadas mejora la administración de recursos y tiempo. Me gustan las listas y quiero hoy compartir uno de mis preferidas. La que utilizo al momento de lanzar un nuevo sitio Web

Lista de comprobación SEO para sitios Web nuevos

Varias son las buenas prácticas que pueden deben seguirse a la hora de lanzar un sitio Web, blog o sitio de e-commerce.

Insertar los códigos de Google Analytics

A los efectos de recibir las métricas del sitio y poder analizar varios aspectos del tráfico del mismo es importante asegurarse que se ha insertado adecuadamente el script de Google Analytics.
Hecho esto, la visualización desde el Panel de Control → Tiempo real → Descripción general debiera indicarnos nuestra propia visita; si es que hemos dejado abierta alguna pestaña del navegador con la página del sitio

Verificar la propiedad del sitio en las Herramientas para Webmasters

Verificar la propiedad del sitio en las Herramientas para Webmasters no acelerará el tiempo de rastreo por parte de Google, menos aún los tiempos de indexación. Pero es un canal de comunicación abierto que Google tendrá con el responsable del sitio y este no es un tema menor.

Si existen errores de rastreo, errores a nivel HTML, penalizaciones al sitio, etc. Esta herramienta permitirá—entre otras cosas—mantenerte informado al respecto. Bien configuradas las notificaciones, pueden recibirse los alertas por correo electrónico.

Verificar el estado de indexación

Si el sitio Web viene desde un diseño en localhost, es probable que herede etiquetas donde se hayan bloqueado el acceso a los crawlers o robots. Aún así, controlar las restricciones declaradas en el archivo robots.txt es un paso que nos ahorrará futuras sorpresas.

Explorar tu sitio

Este es uno de los beneficios de gestionar el sitio mediante las Herramientas para Webmasters. El contar con un crawler bajo demanda, desde Rastreo → Explorar como Google está disponible la opción—hasta 10 veces por mes—de solicitarle al crawler de Google que revise el documento deseado (y las páginas vinculadas de forma opcional).

Optimizar los títulos de las páginas

Este es el recurso inicial del cual disponemos para incrementar el CTR de nuestras páginas. El título de la página junto con la descripción de la misma en la primera información de la cual disponen nuestros visitantes antes de entrar al sitio: es la parte del sitio web que se visualiza desde los resultados de búsquedas orgánicos.

Eliminar el contenido duplicado

El más común de los errores tanto por acción como por omisión es permitir que Google rastree tanto la versión con www como la versión sin www. Es imperativo elegir cual es la versión preferida y hacer redirecciones 301 desde una versión a la otra.

Crear contenido relevante

El contenido relevante se distingue porque es:

  • único
  • propietario
  • útil al usuario

contenido relevante

Sacar partido de las redes sociales

Llevar a cabo la distribución de contenido a través de las redes sociales es un aspecto que nadie debiera pasar por alto. El mercado por el cual estás compitiendo requiere una planificación previa sobre

lista de comprobación SEO

Como ocultar tu sitemap a Google

Los mapas de sitio basados en XML (aka sitemap.xml) ayudan a Google a conocer la estructura de tu sitio. Es importante saber, que—de un tiempo a esta parte—Google incluye en los resultados de búsquedas (aka SERP) los archivos sitemap.xml

El mapa de sitio no es una directiva de rastreo, menos aún de indexación.

Ahora bien, que Google incluya o no el archivo sitemap.xml en los resultados de búsqueda no tiene impacto alguna en la clasificación del sitio ni de las páginas que lo componen; no obstante ello, algún webmaster puede no querer que dicho archiso sea incluído en los resultados de búsqueda.

—Hay alguna forma de evitar que Google haga esto?

—Sí. Y la solución se presenta de manera sencilla.

Sólo hay que agregar las siguientes líneas dentro del archivo .htaccess (si es que tu servicio de host corre Apache). Estas líneas sólo tienen por misión incluir un encabezado con una etiqueta no indexar

<IfModule mod_rewrite.c>
 <Files sitemap.xml>
  Header set X-Robots-Tag "noindex"
 </Files>
</IfModule>

Sólo resta—luego de actualizar estas líneas en el servidor—que Googlebot visite el sitio (1) y se de por enterado de estas directivas
Estos consejos están basados en un tweet de @JohnMu


Visto en Digital Inspiration

nota (1) Esto dependerá de la frecuencia de rastreo que Google tenga asignado a tu sitio.

El solucionador de problemas de Google

El solucionador de problemas de Google

Webmaster Troubleshooter

El solucionador de problemas de Google (aka Webmaster Troubleshooter) es una aplicación Web—de momento sólo disponible en inglés—que permite que el usuario, de manera interactiva, obtenga una respuesta de primera mano a los problemas y preguntas que se plantean a diario tales como

  1. rastreo
  2. indexación
  3. ranking
  4. uso de la Herramientas para Webmasters
  5. etc.
El solucionador de problemas de Google

Esta aplicación no intenta, de manera, alguna; reemplazar los canales de comunicación: foros, blogs, etc. que ofrece Google como recursos. Sólo intenta ofrecer respuestas rápidas para tópicos generales.

Sitio Web | Webmaster Troubleshooter

Penalizaciones de Google

Todo lo que debés saber sobre las penalizaciones de Google

Google establece 2 tipos de penalizaciones: las penalizaciones algorítmicas y las penalizaciones manuales.

Penalizaciones algorítimicas

Las penalizaciones algorítimicas son aplicadas por Google luego de la actualización de sus algoritmos y no requieren reconsideración alguna para que las mismas sean revocadas.

Las penalizaciones algorítmicas no pueden ser verificadas en las Herramientas para Webmasters. Requieren de análisis y para obtener un diagnóstico acertado es necesario:

  1. Analizar el tráfico orgánico
  2. Verificar si el mismo ha tenido una caída
  3. Determinar si tal efecto es debido a una penalización.

Penalizaciones manuales

Las penalizaciones manuales son manejadas por el equipo de WebSpam de Google,  siendo Matt Cutts el líder del equipo.

Las penalizaciones manuales requieren de una reconsideración para que sean finalmente revocadas.

La adjudicación de una penalización manual puede ser inicialmente verificada en:

Herramientas para Webmasters → Tráfico de búsqueda → Acciones manuales

Google Panda

—Es Google Panda una penalización algorítmica de Google o se trata de una penalización manual?
—Se trata de una penalización algorítmica.

Google Panda es una actualización algorítimica y es conocida a partir de su primer versión, casi a finales de febrero de 2011. Luego, ha tenido cerca de 25 actualizaciones más; siendo la última la que se produjo a mediados de julio de 2013.

—A quienes afecta Google Panda?
—Básicamente a sitios con el siguiente perfil:

  • Sitios Web con contenido de baja calidad
  • Páginas con grandes cantidades de publicidad. Especialmente aquellas que privilegian la publicidad por sobre el contenido; como aquellas que obligan al usuario a realizar un scroll para acceder al contenido buscado (Cf.: mejoras en el algoritmo de control de layout)
  • Arquitectura de URL que permite el indexado de contenido duplicado
  • Sitios que proveen una pobre experiencia de usuario

—Se puede evitar ser penalizado por Google Panda?
—Sí. Es posible. Sólo hay que aplicar 3 reglas básicas:

  1. Escribir contenido de alta calidad: contenido propietario, contenido relevante y—por sobre todo—útil al usuario
  2. Seguir las recomendaciones de Google sobre sitios de alta calidad
  3. Verificar la ortografía y el estilo y evitar errores de escritura en la redacción del contenido.

Google Penguin

—Es Google Penguin una penalización algorítmica de Google o se trata de una penalización manual?
—Se trata de una penalización algorítmica.

Google Penguin es una actualización algorítmica de Google que fue lanzada por primera vez a fines de abril del 2012. Ha tenido 3 updates durante el 2012 y sólo 2 actualizaciones durante el año 2013.

—A quienes afecta Google Penguin?
—Google Penguin afecta sitios Web que incurren en las siguientes prácticas:

  • Sitios Web que hayan participando en esquemas de enlaces utilizando el anchor text exacto por el cual se compite
  • Sitios Web que contienen spam dentro su contenido (atención al tipo y calidad de comentarios de los usuarios dentro el sitio. El sitio Web es responsable por la calidad de los mismos)
  • Sitios Web con artículos que manejan estrategias de marketing
  • Enlaces de bajo impacto (desde sitios Web que contienen malware y spam)
  • Sitios Web que intentan ejercer alguna manipulación del algoritmo

—Se puede evitar ser penalizado por Google Penguin?
—Si. Es posible. Sólo hay que conseguir aplicar 2 reglas básicas:

  • Remover desde las Herramientas para Webmasters la mayor cantidad de enlaces que tengan la apariencia de enlaces poco naturales
  • Hacer revisiones de los artículos publicados a fin de evitar que los mismos puedan ser considerados de baja calidad; verificar que no se llevan a cabo prácticas tales como encubrimiento, texto ocultos, etc.

Penalizaciones por enlaces pocos naturales

—La penalización por enlaces poco naturales es una penalización manual o se trata de una penalización algorítimica?
—Se trata de una penalización manual.

Las penalizaciones por enlaces pocos naturales apuntan a los comentarios que los usuarios y visitantes dejan en los blogs, a la presencia de publicaciones en directorios de artículos a la excesiva participación de autores invitados (con el uso de backlinks), etc.

—Se puede evitar ser penalizado por enlaces pocos naturales?
—Si. Es posible. Sólo hay que conseguir aplicar 5 reglas básicas

  1. Escribir contenido de calidad tiene por efecto—inmediato—que otros sitios Web enlacen con el artículo. El backlink es un efecto, no una causa.
  2. Evitar participar en esquemas de enlaces, en especial atención desde sitios con pobre contenido; a los efectos de intentar ejercer algún tipo de manipulación en los algoritmos de Google
  3. Evitar participar en prácticas de blackhat
  4. Agregar un rel=”nofollow” a los enlaces de pago
  5. Suscribirse a las prácticas recomendadas en las Directrices para Webmasters de Google