Mostrando entradas con la etiqueta posicionamiento en buscadores. Mostrar todas las entradas
Mostrando entradas con la etiqueta posicionamiento en buscadores. Mostrar todas las entradas

domingo, 11 de enero de 2015

Publicidad Online: ¿Qué es el SEM ?


Nos adentramos en el SEM y sus conceptos claves, aprenderemos más adelante a medir los resultados de una campaña SEM, y a cómo analizar el comportamiento del tráfico de búsqueda de pago.
Figura 1. Imagen propiedad de Campo Semantico.

SEM (Search Engine Marketing, Marketing en motores de búsqueda) es la actividad dedicada a hacer más visibles un sitio Web en los buscadores mediante anuncios de pago con el fin de aumentar el tráfico de calidad en dicho sitio. Este tráfico implica un pago al buscador. En la imagen vemos señalado los resultados de búsqueda orgánica (SEO) y de pago (SEM) en el buscador Google. Aunque esta figura ya se mostró en el capítulo sobre SEO, la volvemos a recordar.



Las campañas de anuncios por pago en buscadores pueden tener varios objetivos según el caso, por ejemplo:



-       Si se lanza un sitio Web puede utilizarse para darlo a conocer y conseguir visitas hasta que logre un buen posicionamiento natural (en búsqueda orgánica).

-       Si el tráfico de búsqueda no alcanza las metas deseadas, las campañas de anuncios por pago ayudarán a incrementar el tráfico. El SEO no siempre llega a todas las palabras claves deseadas con los resultados deseados. En esto casos la campañas SEM son el complemento perfecto.

-       Si se desea promocionar un nuevo producto, servicio o microsite, ayudarán a dirigir más tráfico hacia éstos.

-       Para asegurar una posición destacada respecto a los resultados de la competencia.



Mediante la analítica Web comprobaremos cuál es el rendimiento de las campañas SEM. Como veremos, las técnicas son similares a las aplicada SEO.




                   Figura 2. Resultados de búsqueda orgánica (SEO) y de pago (SEM) en el buscador Google.

KPI PARA SEM



Tendencia del tráfico de búsqueda de pago



Controlaremos la evolución mediante el informe de tráfico de búsqueda de pago, cuya gráfica ofrece una rápida visión del progreso de las visitas recibidas desde esta fuente.



Encontraremos este informe en Informe estándar>Fuentes de tráfico>Fuentes>Búsqueda>De pago.


                   Figura 3. KPI´s básicos para SEM.

Encontramos este informe en Informes estándar>Fuentes de tráfico>Fuentes>Búsqueda>De pago.



En la siguiente imagen observamos un ejemplo en el que la gráfica muestra inicialmente cero visitas procedentes de los anuncios de pago y, tras realizar una pequeña campaña, las visitas se incrementan de forma gradual.



Junto con el incremento de tráfico tendremos que analizar las conversiones conseguidas.
 
                   Figura 4. Ejemplo de 'Informe por Conversiones' con 'Google 'AdWords'.


Conversiones y ROI del tráfico de búsqueda de pago



Si la campaña SEM la estamos realizando con Google AdWords, Google Analytics incluye una opción específica con informes muy completos, entre ellos, “Palabras clave”, que encontramos en Informes estándar>Publicidad>AdWords>Palabras clave.



Si hemos asignado un valor a los objetivos o estamos ante un sitio Web de comercio electrónico, se mostrará automáticamente el retorno de la inversión (ROI) para cada palabra clave o en general. En la imagen vemos esta opción.

                   Figura 5. Ejemplo de 'Informe por Palabras Clave'.

Según el grupo de métricas que seleccionemos, este informe nos mostrará los siguientes datos para cada palabra clave:



-       Visitas.

-       Páginas por visita.

-       Promedio de tiempo en el sitio Web.

-       Porcentaje de visitas nuevas.

-       Porcentaje de rebote.

-       Número de consecuciones del objetivo.

-       Ingresos.

-       Impresiones.

-       Clics.

-       Coste.

-       CTR.

-       CPC.

-       Ingresos por clic (RCP).

-       ROI.



Y todos estos datos también se proporcionan en general para el periodo de tiempo seleccionado y por campaña. Será fácil saber qué palabras clave funcionan mejor y los ingresos obtenidos mediante SEM frente a la inversión en SEM.

Segmento de tráfico de búsqueda de pago



 La campaña SEM la estamos realizando con Google AdWords, Google Analytics incluye una opción específica con informes muy completos, entre ellos, “Palabras clave”, que encontramos en Informes estándar>Publicidad>AdWords>Palabras clave.

Si hemos asignado un valor a los objetivos o estamos ante un sitio Web de comercio electrónico, se mostrará automáticamente el retorno de la inversión (ROI) para cada palabra clave o en general. En la imagen vemos esa opción.

                   Figura 6. Ejemplo de 'Métricas' para SEM.

 

Segmento de tráfico de búsqueda de pago

Si deseamos consultar para este tráfico algún informe distinto a los incluidos en la opción AdWords, tendremos que aplicar el segmento predefinido “Tráfico de búsqueda de pago”.

                   Figura 6. Captura de pantalla 'Google Analytics'. 

Tiempo hasta la compra y frecuencia

En el caso del tráfico de búsqueda de pago también analizaremos los informes “Frecuencia y visitas recientes” y “Días hasta la compra” para estudiar el comportamiento de los usuarios.

Para los informes de frecuencia aplicaremos el segmento que se centra en los visitantes recurrentes y, al igual que hicimos en el capítulo de SEO, en este caso seleccionaremos el tráfico de pago.


                   Figura 7. Segmento de tráfico de búsqueda de pago con visitantes recurrentes.


Recursos y complementos:
 
En próximos post, dedicaremos el esfuerzo a explicar el análisis de la competencia y oportunidades. Acompañaremos igualmente la información, con algunas herramientas que nos ayudarán en la selección de palabras clave de interés, y diseñar campañas más eficaces.




 
------------------- TO BE CONTINUED -------------------


lunes, 5 de enero de 2015

Googlebot: Cómo funciona un buscador

 Figura 1. Definición de GoogleBot.
     Para cualquier profesional, un esfuerzo extra supone posponer un montón de cosas personales. No es el caso, puesto que antes de salir 'pintando' para la Cabalgata de Reyes, me propongo haceros llegar un post resumido sobre el funcionamiento de los motores de búsqueda. Nos introducimos ayer en algunos conceptos complejos y extensos, como es la web semántica... continuaremos haciéndolo, no obstante se hace conveniente para los que aún no controlaís la terminología y los aspectos fundamentales de Internet, dedicar unas cuantas líneas a la herramienta que ha posibilitado la evolución de la red y la organización de la información: los motores de búsqueda. Disculpad la calidad de las imágenes, y el idioma. La falta de tiempo (hoy como excepción), no me permiten disponer de algunas más adecuadas.


Cómo realiza Google las búsquedas



     Si estás leyendo este post, estás interesado en aprender cómo Google crea el índice y la base de datos de los documentos a los que se accede cuando se procesa una consulta.  Tomaremos como punto de partida, la descripción que ofrece Gary Precio en el Capítulo II de La Web Invisible (CyberAge Books, 2001), sobre cómo los Motores de Búsqueda organizan la información.
     <<Google se ejecuta en una red distribuida de miles de computadoras de bajo costo y por lo tanto puede llevar a cabo el procesamiento en paralelo rápido. El procesamiento en paralelo es un método de cálculo en la que muchos cálculos pueden realizarse de forma simultánea, lo que acelera significativamente el procesamiento de datos.>>
Google tiene tres partes bien diferenciadas:
 Figura 2. 'The Invisible Web',(CyberAge Books, 2001). 
Autores: Chris Sherman y Gary Price. 
Googlebot, un rastreador web que busca y recupera las páginas web.



El indexador que ordena cada palabra en cada página y almacena el índice resultante de las palabras en una enorme base de datos.



El procesador de consultas, que se compara su consulta de búsqueda en el índice y recomienda los documentos que considere más relevantes.
 
Echemos un vistazo a cada parte.

Googlebot, Web Crawler de Google

     Googlebot es un robot de rastreo web de Google, que encuentra y recupera las páginas en la web y las superpone encima del indexador Google. Es fácil imaginar Googlebot como una pequeña araña corriendo por los hilos del ciberespacio, pero en realidad Googlebot no atraviesa la web en absoluto. Funciona muy parecido a su navegador de Internet, mediante el envío de una petición a un servidor web para cargar una página web; posteriormente procede a la descarga de toda la página, y luego la entrega al ndexador de Google.

     Googlebot se compone de muchos equipos que solicitan y ir a buscar páginas mucho más rápido de lo que puede con su navegador web. De hecho, Googlebot puede solicitar miles de diferentes páginas simultáneamente. Para evitar sobrecargar los servidores web, o desplazar las peticiones de los usuarios humanos, Googlebot hace deliberadamente peticiones de cada servidor web de forma individual.
      Googlebot encuentra páginas de dos maneras: a través de un formulario de URL add, www.google.com/addurl.html , y a través de la búsqueda de enlaces de rastreo de la web. 

 Figura 3. Googlebot: Formulario de búsqueda.
     Desafortunadamente, los spammers descubrieron cómo crear robots automatizados que bombardearon el formulario add URL con millones de direcciones URL que apunta a la propaganda comercial. Google rechaza esas URLs enviadas a través de su formuario URL Add, por el  sospecha están tratando de engañar a los usuarios mediante el empleo de tácticas como la inclusión de texto oculto, o enlaces a una página. Otras técnicas como el relleno de una página con palabras irrelevantes, el encubrimiento (también conocido como señuelo), utilizando redireccionamientos elusivos, la creación de portales, dominios o subdominios con contenido sustancialmente similar, el envío de consultas automatizadas a Google, y la vinculación a los malos vecinos. Así que ahora el formulario Add URL también tiene una prueba: muestra algunas opciones para engañar a los spammers de forma automatizada; se le pedirá que introduzca las letras que ve - algo así como un examen de la vista, similar a los caracterís captcha para tratar de frenar los spambots.
     Cuando Googlebot obtiene una página, entresaca todos los enlaces que aparecen en la página y los añade a una cola para su posterior rastreo. Googlebot tiende a encontrarse con baja de spam porque la mayoría de los autores web vinculan sólo a los que ellos creen que son las páginas de alta calidad. Por vínculos de cosecha de cada página que encuentra, Googlebot puede crear rápidamente una lista de enlaces que pueden cubrir amplios alcances de la web. Esta técnica, conocida como el rastreo profundo, también permite que el robot de Google para sondear las profundidades de los sitios individuales. Debido a su escala masiva, los rastreos profundos pueden llegar a casi todas las páginas de la web. La web es enorme, esto puede tomar algún tiempo, por lo que algunas páginas pueden ser rastreaas sólo una vez al mes.

     Aunque su función es simple, Googlebot se debe programar para manejar varios desafíos. En primer lugar, ya que el robot de Google envía solicitudes simultáneas de miles de páginas, la cola de la "visita breve" URLs, debe ser constantemente examinada y comparada con las URL que ya están en el índice de Google.Los duplicadios en la cola deben ser eliminados para evitar que Googlebot vaya a buscar la misma página de nuevo.  Determinará con qué frecuencia volverá a visitar una página. De otro lado, es una pérdida de recursos para volver a indexar una página sin cambios. 

     Para mantener actualizado el índice, Google rastrea constantemente las páginas web que cambian con más frecuencia. Estos rastreos mantienen un índice corriente, y se conocen como rastreos frescos. Las páginas de los periódicos se descargan a diario, y las páginas con las cotizaciones de bolsa se descargan con frecuencia horaria. Por supuesto, los rastreos frescos devuelven menos páginas que el arrastre de profundidad. La combinación de los dos tipos de rastreos permite que Google hacer un uso eficiente de sus recursos, y mantener su índice razonablemente actualizado.

Indexador de Google

     Googlebot ofrece el indexador al texto completo de las páginas que encuentra. Estas páginas se almacenan en la base de datos del índice de Google. Este índice está ordenada alfabéticamente por el término de búsqueda, con cada entrada de índice que almacena una lista de los documentos en los que aparece el término y la ubicación dentro del texto donde se produce. La estructura de datos permite un rápido acceso a los documentos que contienen los términos de búsqueda del usuario.

     Para mejorar el rendimiento de búsqueda, Google ignora (no indexa) palabras comunes llamados palabras vacías (como el, es, en, o, de, cómo, por qué, así como algunos dígitos y letras independientes). Las palabras vacías son tan comunes que hacen poco para restringir una búsqueda, y por lo tanto de manera segura pueden ser descartadas. El indexador ignora igualmente algunos signos de puntuación y espacios múltiples, así como la conversión de todas las letras en minúsculas para mejorar el rendimiento de Google.
Procesador de consultas de Google

     El procesador de consultas tiene varias partes, incluyendo la interfaz de usuario (cuadro de búsqueda), es el "motor" que evalúa las consultas y lass compara con los documentos pertinentes, y los resultados del formateador.

     PageRank es el sistema de Google para clasificar las páginas web. Una página con un PageRank más alto se considera más importante y es más probable que se enumere más arriba que una página con un PageRank más bajo.

     Google tiene en cuenta más de un centenar de factores en el cálculo de un PageRank y determinar qué documentos son más relevantes para una consulta, incluyendo la popularidad de la página, la posición y el tamaño de los términos de búsqueda dentro de la página, igualmente, también la proximidad de los términos de búsqueda entre sí en la página. Una solicitud de patente, analiza otros factores que Google tiene en cuenta al clasificar una página. Visita el informe del SEOmoz.org para una interpretación de los conceptos y las aplicaciones prácticas que figuran en la solicitud de patente de Google.
     Google también aplica técnicas de aprendizaje para mejorar su rendimiento de forma automática: basada en relaciones y asociaciones entre los datos almacenados. Por ejemplo, el sistema de corrección ortográfica utiliza esas técnicas parra averiguar otras ortografías alternativas. Google guarda celosamente las fórmulas que utiliza para el cálculo de relevancia; que están ajustados para mejorar la calidad y el rendimiento, y para burlar las últimas técnicas (ataques) utilizadass por los spammers.

     Indexar el texto completo de la web, permite a Google ir más allá de los resultados de términos de búsqueda individuales. Google da más prioridad a las páginas que tienen los términos de búsqueda más aproximados, y en el mismo orden que en la consulta. Google también puede hacer coincidir frases de varias palabras y oraciones.

     Desde Google se indexa código HTML, además del texto en la página, los usuarios pueden restringir las búsquedas sobre la base de donde aparecen palabras de la consulta, por ejemplo; en el título, en la URL, en el cuerpo, en enlaces de la página, en las opciones que ofrece por Búsqueda Avanzada el Formulario de Google y el Uso de Operadores de búsqueda (Operadores Avanzados).

A continuación un ejemplo sobre cómo Google procesa una consulta:

Esquema. Procesamiento de consulta.


Recursos y complementos: