Etiqueta: sitio web

Apple desmiente que el sitio de desarrolladores se vio afectado por brecha de seguridad

La empresa de Cupertino explica que el problema que afectó a las cuentas durante un periodo breve fue causado por un error y no por una brecha de seguridad como algunos habían especulado.

Durante la mañana de ayer, varios informes de seguridad anunciaron una anomalía que cambió las direcciones de algunos desarrolladores dentro del sistema de Apple a una dirección en Rusia. Este incidente suscitó preocupación ya que pudo haber sido provocada por la participación de un tercero no autorizado.

Sin embargo, Apple aseguró que sus sistemas no habían sido vulnerados. La compañía emitió una nota a los desarrolladores en la que explicaba que un error no especificado causó el problema temporal; y que solamente habían sido afectados algunos desarrolladores.

En 2013, el centro de desarrolladores de Apple sufrió un ataque de tres días después de haber sido hackeao, pero el incidente de esta semana no es del mismo tamaño.

Redacción

 

El 80% de las Pymes y grandes empresas tienen un sitio web corporativo

El Observatorio Nacional de las Telecomunicaciones y Sociedad de la Información (ONTSI), publica un estudio llamado “Informe ePyme 2016” el cual destaca que solo el 47.6% de las microempresas, aquellas que tienen 10 trabajadores o menos, implementan medidas de ciberseguridad. En el caso de las pymes o las grandes empresas, este porcentaje se incrementa hasta el 88.1%.

El estudio recoge la evolución de los principales indicadores del impacto de la transformación digital en diferentes sectores empresariales de la economía. En el documento se analizan los diez sectores de actividad empresarial que representan el 73.2% del total de las empresas de la economía, para cada sector se registran datos de trece indicadores de implantación de las TIC. En relación a ediciones anteriores, el informe incorpora novedades en la publicidad dirigida, el análisis Big Data y la ciberseguridad.

El informe del ONTSI revela que se producen incrementos en la mayoría de los indicadores TIC tanto en pymes y grandes empresas como en microempresas. Las únicas excepciones son la banda ancha fija y el uso de la administración electrónica que descienden en ambos sectores, así como la formación en TIC que lo hace entre las microempresas.

En cuanto al equipamiento TIC básico, el informe revela que el 99.1% de las pymes y grandes empresas dispone de ordenador, aunque este porcentaje es del 74.5% en el caso de compañías con plantillas de menos de 10 empleados. El acceso a Internet es también prácticamente universal en las empresas de 10 o más empleados -98.4%- y, aunque entre las microempresas se sitúa en el 70.7%, el nivel de penetración aumenta en estas 2.7 puntos porcentuales respecto a 2015.

Según el informe, el 77,5% de las Pymes y grandes empresas dispone de su propio sitio web, mientras que este porcentaje es del 31.5% en el caso de las microempresas, lo que supone incrementos de 0.9 y 3.7 puntos porcentuales, respectivamente.

Se aprecian diferencias de comportamiento entre pymes y grandes empresas y microempresas en lo que a formación en competencias digitales se refiere, mientras en el primer caso se produce un incremento y se sitúa en el 23.4%, en el segundo hay un descenso de 0.5 puntos porcentuales hasta el 3.1%.

Destaca el incremento de empresas que compran por Internet

Por su parte, aumenta el porcentaje de empresas que realiza compras por comercio electrónico, con porcentajes de un 32.1% de pymes y grandes empresas y un 16.6% de microempresas, e incrementos de 4.5 y 4.3 puntos porcentuales, respectivamente.

DealerWorld

Claves a tomar en cuenta en un proveedor de hosting

Cuando se trata de un proveedor de hosting, ya sea para un sitio de comercio electrónico, de juegos en línea o corporativo, es importante señalar que la mayoría de las empresas a nivel mundial comparten un objetivo común: reducir los obstáculos que afectan la capacidad de control de cualquier departamento de tecnología.

Una solución de hosting debe ser capaz de cumplir con las necesidades críticas de los negocios, sin complicar los procesos. Por ello Cogeco Peer 1 nos comparte tres conceptos importantes que debe tomar en cuenta al momento de seleccionar un proveedor de hosting:

 

1) Cuando se piensa en contratar un servicio proporcionado por un tercero, no se debe dudar

Contratar a un tercero con buena reputación, capacidad y calidad que ofrezca desde un hosting básico hasta servicios en la nube es cada vez más necesario para compañías de cualquier tamaño, desde las pymes hasta grandes corporativos, no debe ser un obstáculo. Al contrario, un buen servicio de hosting ofrecido por un tercero tiene la capacidad de amplificar recursos que a veces son limitados dentro de la misma empresa. Por ello no hay que dudar, hay que encontrar un proveedor que tenga las mejores prácticas, experiencia, capacidad de cumplir y exceder las necesidades del negocio

Las compañías pueden aligerar su carga operativa, su energía y recursos para poder enfocarse en lo más importante: su crecimiento e innovación. Un buen proveedor puede liberar a la empresa de la complejidad de las TI y los retos operativos. Al albergar los sistemas críticos de un negocio dentro de los centros de datos de un tercero que cuente con tecnología de punta, migrar a una solución en la nube hecha a la medida, o elegir a un proveedor para mantener los sistemas y datos respaldados y listos en caso de producirse un contratiempo.

 

2) Los negocios hoy requieren de una gama completa de recursos para su hosting

Respaldos, administración de nubes privadas, soluciones de seguridad integral o soluciones híbridas, flexibilidad, y disponibilidad de servicios, son las capacidades de un proveedor de hosting que, junto con su red e infraestructura de centros de datos, son fundamentales para los directores de tecnologías de la información de las empresas más relevantes a nivel mundial cuando eligen un proveedor de hosting. Incluso, hay quienes buscan proveedores que ofrecen una garantía de cero-tiempo de inactividad.

Un proveedor de hosting debe contar con componentes de infraestructura probados, optimizados y escalables para brindar confiabilidad y un desempeño insuperable. Todo esto debe estar respaldado por un equipo experimentado de profesionales que, en conjunto, puedan hacer que el sitio de una empresa funcione perfectamente. El resultado final debe ser un sitio web rápido, sólido y sin problemas que se ejecute excepcionalmente y que ofrezca una experiencia sin interrupciones a sus usuarios.

 

3) La calidad de un proveedor de hosting se puede medir con base en su servicio al cliente

Las empresas no requieren de un proveedor de hosting que solo funcione como una simple herramienta, sino a un socio que genere una relación dinámica y constructiva. Ahí es cuando la capacidad y calidad del servicio al cliente del proveedor cobra vida. Un socio de hosting ideal es aquel que además de tener la infraestructura y capacidad de brindar las soluciones necesarias a una empresa, ofrezca un servicio al cliente sin precedentes al atender necesidades tanto del negocio como técnicas, y eso es lo que genera una verdadera sociedad.

Un buen socio de hosting es aquel que solo necesita una llamada de contacto, que sepa escuchar, que empiece a trabajar de inmediato y no descanse hasta que el cliente esté satisfecho. Sus expertos deben estar disponibles a toda hora para solucionar los requerimientos o problemas de la forma más rápida y correcta.

Ya sea para un negocio con un sitio de comercio electrónico, web o aplicaciones móviles, de juegos, agencia digital, o plataforma SaaS, el proveedor de hosting debe tener una solución ideal y a la medida para asegurar una experiencia de alojamiento veloz, segura y confiable.

 

 

¿Realmente los bots son buenos para la organización?

Los bots son una parte fundamental del ecosistema de Internet. Sin embargo, su uso se deriva en una gran cantidad de tráfico en la red, con lo que se reduce considerablemente el rendimiento de los sitios web, y se incrementan los costos de las organizaciones para optimizar las redes.

Se estima que entre el 40 y el 60% del tráfico en la red está asociado a bots, operando con un grado excesivo de libertades, independientemente de su tipo o intención, lo que se traducirá en una degradación del rendimiento del sitio web, y como consecuencia, el tráfico legítimo se verá afectado negativamente.

Para poder dar fin y solucionar esta problemática, Akamai ha emitido una serie de recomendaciones sobre el impacto que pueden tener estos bots en la red, muy especialmente las asociadas a las instituciones financieras. Akamai destaca que necesitan un marco flexible que les permita gestionar mejor sus interacciones con distintas categorías de bots (agregadores, scrapers y rastreadores) para interactuar con sus clientes y no influir negativamente en la actividad empresarial.

En un escenario típico, los agregadores financieros recopilan información de cuentas bancarias asociadas a tarjetas de crédito, personales o de empresa. Estos datos se recopilan mediante conexiones de datos directas o técnicas de scraping, en las que un usuario proporciona la información de acceso a la cuenta, que permite que un sistema automatizado extraiga o recopile la información desde una interfaz diseñada para usuarios. La finalidad no es otra que la de facilitar las lentas tareas de recopilación e introducción manual de datos. Además, los agregadores utilizados en este sector pueden eliminar la necesidad de transferir copias de los extractos y proporcionar una panorámica integral del patrimonio neto de un cliente, incluidos los activos, los pasivos y las inversiones. Y las instituciones pueden realizar un seguimiento del tráfico de usuarios en comparación con el de bots, reducir los riesgos y garantizar la fiabilidad de sus propiedades digitales.

Cuando una institución financiera detecta bots maliciosos, el bloqueo es solo una solución temporal que, a la larga, resulta ineficaz: los bots bloqueados simplemente volverán de forma más rápida y más inteligente. Las dos soluciones más comunes consisten en la mera ralentización de estos bots, para reducir el valor y la pertinencia de la información de la que hacen acopio, o en el suministro de información alternativa, que los desvía a una página con un contenido intencionadamente impreciso.

Akamai propone una solución basada en la identificación, clasificación y gestión de los bots, ya sean buenos como los malos, con la finalidad de lograr los objetivos de su sitio web. Conocido como Bot Manager, ofrece gestión, análisis y elaboración de informes de la actividad de los mismos para mejorar la visibilidad de lo que congestiona la red. Bot Manager de Akamai identifica las solicitudes generadas por los bots para separar el tráfico de estos del de los usuarios reales, lo que puede ayudar a mejorar los datos y el análisis de marketing, y a tomar mejores decisiones empresariales.

Alfonso Casas

 

Sección Amarilla se enfoca en impulsar las Pymes

La empresa mexicana Sección Amarilla presentó este miércoles la iniciativa “Entrenamientos Digitales”, enfocada en ayudar a las Pequeñas y Medianas Empresas (PyMEs) del país a fortalecer su presencia en línea, mediante sesiones de capacitación sobre Marketing Digital.

“El año pasado visitamos 12 ciudades y este año vamos por más de 20. Además, lanzaremos esta misma iniciativa en canales digitales, para que este conocimiento pueda llegar más lejos y estar siempre ahí. Nuestro objetivo es convertirnos en la guía de esas miles de empresas que quieren incursionar en el mundo digital, pero que no saben cómo”, aseguró Benjamín Podoswa, CEO de la empresa, en un evento para medios.

Para llevar a cabo este proyecto, Sección Amarilla ha concretado importantes alianzas y conseguido certificaciones con el Interactive Advertising Bureau (IAB), la Asociación Mexicana de Internet (Amipci) y el gigante tecnológico Google. Este último, invitado a participar en las sesiones de “Entrenamientos Digitales”.

Además de su histórico Directorio impreso, Sección Amarilla ofrece actualmente una gama completa de servicios digitales para las empresas que desean incursionar o mejorar su presencia en el mundo digital: anuncios en su sitio web (con más de 10 millones de visitas mensuales), desarrollo de tiendas en línea para comercio electrónico y páginas web, además de otras ideas únicas en el mercado como ofertaSmart, ideal para negocios que quieren impulsar promociones de sus productos.

“Estamos construyendo la agencia de Marketing Digital más grande de México”, subrayó Podoswa en el evento.

Mitos sobre cómo el contenido duplicado afecta el SEO

gobierno-electronico-internetVirket da a conocer aquellos mitos que existen entorno al contenido duplicado en el posicionamiento web en buscadores.

Alejandro Daniel Padilla, Copywriter, y Daniel Molano, Chief Marketing Officer, ambos de Virket, comentan que uno de los miedos más grandes que puede tener cualquier mercadólogo, es que el posicionamiento Web en buscadores se vea afectado. Mucha gente que no tiene experiencia con Search Engine (SEO), piensa que existe una penalidad por publicar contenido duplicado, mismas personas que no han leído la guía sobre contenido duplicado publicada por Google. A continuación, hablaremos un poco sobre los mitos que existen sobre el contenido duplicado.

 

MITO No. 1: Contenido no original va a dañar el posicionamiento Web en buscadores

Nunca antes se ha dado el caso de que contenido que no sea original afecte el ranking o posicionamiento Web en buscadores, con excepción de un caso muy extremo en el que cierta empresa de Relaciones Públicas copió la página principal de un sitio, utilizándola para distintos eventos que tenían que cubrir. En cuestión de minutos, ya había, literalmente, cientos de copias de este sitio Web por toda la red, todos conteniendo exactamente la misma información, lo que, lógicamente, encendió las alarmas en Google. En cuestión de minutos, el sitio había sido sancionado.

Luego de que esto sucediera, los dueños del sitio original levantaron una queja con Google, la empresa revisó el caso y levantó la sanción. Este es uno de los pocos casos en los que Google ha sancionado algún sitio por contenido duplicado, y, como podemos ver, es un caso especial, pues existían cientos de sitios con exactamente la misma información, publicados todos al mismo tiempo y todos con exactamente el mismo diseño, a pesar de que el nombre de los dominios era distinto.

Sin embargo, esto no es a lo que la mayoría de la gente se refiere cuando estamos hablando de “contenido duplicado”. Por lo general, se refieren a una copia de 1,000 palabras en un sitio, y se necesita mucho más que esto para prender los focos rojos en Google. Muchos sitios, incluyendo los blogs más populares en la red, generalmente vuelven a postear artículos que ya han aparecido en algún otro lugar. En este caso, ellos no esperan rankear en las primeras posiciones del buscador, pero también saben que no va a dañar la comunicación de su sitio.

 

MITO No. 2: Scrapers van a dañar tu sitio

Un Scraper es un software que es utilizado con mucho fines, uno de ellos es el de monitoreo de algún sitio, pero también puede ser utilizado para copiar todos los contenidos nuevos que vaya publicando algún sitio Web. Es importante dejar claro que los Scrapers no benefician pero tampoco perjudican el posicionamiento Web en buscadores de tu sitio. Y es que si hay un pequeño sitio en Europa que no publica nada de contenido original y tiene muy pocas visitas, será algo totalmente irrelevante para Google.

Algo a lo que sí debemos de poner cercana atención es a los plagiarios. Hay una enorme diferencia entre contenido que haya sido copiado por un software y la violación de Derechos de Autor. Es probable que en algún momento una compañía se robe tu contenido, o incluso hasta tu sitio entero, y se atrevan a decir que ellos lo crearon. Esto, lógicamente, es ilegal, y en caso de que te suceda, querrás pensar en abogados más que en cómo puede afectar tu reputación ante los motores de búsqueda.

 

MITO No. 3: Republicar contenido a tu propio sitio es una mala idea

Como regla general, siempre es mejor publicar contenido propio y original, pero hay momentos en los que publicar contenido que haya sido publicado en otro sitio puede agregar valor a tu blog, por lo que no tiene absolutamente nada de malo hacerlo. En realidad, existen muchos blogs con una muy buena reputación que alientan a los visitantes a postear su contenido en sus sitios propios algunas semanas después de su publicación. A lo mucho, lo único que piden es que se utilice una etiqueta HTML.

Parece que estamos entrando en pánico por algo que ni siquiera sabemos a ciencia cierta, así que hay que considerar lo siguiente. Los bots de Google visitan la mayoría de los sitios de Internet. Si encuentran una versión copiada de algún texto en algún otro sitio, sabrá cuál es el original. Los bots de Google no se enojarán y penalizarán el sitio que publica contenido no original, simplemente no lo van a rankear tan alto en el posicionamiento Web en buscadores como aquel artículo que sí es original,concluyeron Padilla y Molano.

 

 

-Comunicado de Prensa

¿Cómo elegir el mejor dominio para su empresa?

internet_pagina-webUna vez tomada la decisión de estar en línea, el primer paso es elegir de manera correcta el  dominio que refleje el giro de la empresa.

En enero de 2014 había 861,379,000 nombres de dominio registrados en el mundo. Muchos negocios han tenido en su página de internet un aliado determinante para salir adelante y se exitosos. Sin embargo, no depende solo del azar o de la calidad de sus productos. La elección correcta de un dominio es fundamental para tener un éxito en línea. Actualmente, las empresas de nueva creación pueden encontrar opciones reducidas para registrar el nombre deseado, ya que muchos han sido registrados con anterioridad. En respuesta, la industria está poniendo en marcha cientos de nuevas terminaciones de dominio como .rest y .expert que darán nuevas opciones de dominio a todos los negocios de México. Cuando una empresa crea su página de internet, ¿debe ser con un dominio .com?, ¿o será mejor un .info?, ¿o qué tal un .net?

¿Qué eres?

Definitivamente, el giro del negocio será determinante en la elección del dominio pero, para aclarar las opciones, repasemos los más comunes:

·         .com: el dominio más popular a la fecha. Su nombre deriva de la palabra “comercial”. Originalmente estaba pensado para las organizaciones comerciales, sin embargo, su popularidad hizo que múltiples organizaciones, incluso no comerciales tuvieran su dominio en .com

·         .com.mx: Es un dominio de segundo nivel, (los niveles se separan por puntos), que está pensado para la zona geográfica de México. El .com.mx es para los giros empresariales comerciales que tienen operación en este país.

·         .net: este dominio comenzó como nicho para empresas relacionadas con tecnologías de redes, como los proveedores de servicios de Internet y otras empresas de infraestructura. Sin embargo, la relación con “Network” abrió el interés a empresas con sedes en distintos países, haciendo que poco a poco fuera adoptando por cualquier tipo de empresa.

·         .org: originalmente enfocado a organizaciones que no se clasifican adecuadamente en los otros dominios. En la actualidad no existen requisitos específicos para registrar un dominio .org. Algunos países añaden al dominio un segundo nivel como .org.mx

·         .info: diseñado para sitios de contenido informativo, se esperaba que los periódicos y páginas de agencias de noticias tomaran este dominio, sin embargo, una alta cantidad de páginas fraudulentas optaron por esta terminación, haciendo que una orden judicial desapareciera multitud de sitios. Actualmente mantiene su uso de forma constante, aunque no tan popular.

·         .biz: previsto para ser usado en negocios; el nombre es referente de “business” (en español, negocio). Fue creado para aliviar la demanda del número limitado de dominios disponibles en .com

·         .name: pensado para la representación de nombres personales, sobrenombres, nombres de usuario, pseudónimos u otros tipos de marcas de identificación de personas.

Encuentra tu identidad
Los mejores consejos para estructurar su dominio:

1) Breve y sencillo – No hay nada peor que un largo dominio que es difícil de recordar. Al simplificar tu dominio hacerlo memorable, será mucho más fácil para los consumidores encontrar tu sitio.

2) Personalizado – Al incluir el nombre comercial dentro del dominio, los clientes lo pueden identificar inmediatamente.

3) Creativo – No es malo ser creativo, los consumidores de hecho son más propensos a recordar un nombre que es diferente y destaca. Con los nuevos dominios hay un sinfín de oportunidades para las empresas que se presentan en línea.

4) Motor de búsqueda amigable – La inclusión de palabras clave importantes dentro de tu dominio puede ayudar a los motores de búsqueda a encontrar con más facilidad.

Basado en estos datos, es mucho más fácil elegir el dominio correcto. ¿Eres un profesional de la información con un medio que desea ser reconocido?, el dominio .info es adecuado para ti. Si tu organización es sin fines de lucro y busca una presencia confiable, el .org es la opción. Para una empresa comercial basada en México, el .com.mx es una opción confiable y, si tienes un poco más de dinero que invertir, un .mx

Estamos en línea para que nos encuentren clientes, prospectos y proveedores, además de ser eficientes en nuestra área, debemos hacer que sea fácil encontrarnos, y elegir es dominio correcto es la llave para asegurar este beneficio.

 

– Richard Stevenson, director de relaciones públicas globales de 1&1 Internet

Las web efímeras amenazan la seguridad

internet_pagina-webLas Web efímeras representan una importante amenaza para la seguridad. Así lo asegura un informe de Blue Coat en el que se destaca que una parte importante de estas páginas, que apenas tienen una vigencia de 24 horas, es utilizada para dar cobertura a actividades maliciosas.

Según Blue Coat, el 71 por ciento de los dominios Web apenas tienen una vigencia de 24 horas. Aunque la mayoría de éstas tienen un papel importante para que el contenido de Internet pueda ser compartido, “una parte significativa de ellas es utilizada para dar cobertura a actividades maliciosas, incluyendo la comunicación con sistemas ya infectados.”. Así lo revela la firma en el estudio One-day Wonders: How Malware Hides among  the Internet’s Short-Lived Websites”, en el que se asegura “que los principales generadores de estas web efímeras son organizaciones que cuentan con una presencia importante en Internet, como Google, Amazon y Yahoo, así como las compañías de optimización de la Web que las usan para acelerar la entrega de contenidos”. Blue Coat también ha encontrado que uno de los creadores más prolíficos de este tipo de páginas es la website de pornografía en Internet más popular.

Dentro de los 50 dominios efímeros usados con una mayor frecuencia, el 22 por cierto escondían actividades de carácter malicioso. Estos dominios utilizaban páginas de vida breve para facilitar ataques y gestionar botnets “lo que les permite aprovechar su carácter de “nuevo y desconocido” para así escapar de las soluciones de seguridad existentes”.

“Mientras que la mayoría de las webs efímeras son fundamentales para las prácticas legítimas en Internet y no son maliciosas, su gran volumen suponen un caldo de cultivo perfecto para actividades no tan legítimas”, comenta Tim van der Horst, analista senior de amenazas de Blue Coat Systems, quien continúa asegurando que “Con la misma rapidez que surgen desaparecen, y ello supone una dificultad significativa para muchos de los controles de seguridad existentes. Entender lo que esas web son y cómo son utilizadas, es clave para ser capaces de poder construir una posición defensiva más eficaz”.

Cabe señalar, además, que las webs efímeras son muy populares entre los ciberdelincuentes por que mantienen ocupadas a las soluciones de seguridad (los dominios dinámicos son más difíciles de hacer fracasar que los dominios estáticos); desbordan a las soluciones de seguridad y se ocultan de las mismas.

Blue Coat recuerda a las empresas que es necesario que los controles de seguridad cuenten con información automática y en tiempo real, que permita identificar y asignar niveles de riesgo a esas webs efímeras. “Las defensas estáticas o lentas no son suficientes para para proteger los datos de usuarios y empresas”, señala el informe que también asegura que “los controles de seguridad basados en políticas concretas deben ser capaces de actuar con información en tiempo real para bloquear ataques maliciosos”.

 

-Bárbara Madariaga

7 Consejos para hacer su sitio Web más amigable ante los buscadores

Recientemente pedimos a cerca de 30 expertos sus consejos en una lista para mejorar las técnicas en Posicionamiento en buscadores (SEO por sus siglas en inglés). Los siguientes siete consejos SEO son algunos de los extractos que hicimos para mejorar las prácticas en la optimización que bien merecen su atención.

 

1) Mantenga su Sitemap actualizado

“Si va a actualizar su sitio web, asegúrese de mantener su sitemap al día de forma que haga más fácil para los robots de los motores de búsqueda la indexación correcta de su sitio web.” – Sameep Shah, fundador de SimpleWebDesign.

 

2) No te preocupes demasiado por palabras clave

El nuevo algoritmo “Hummingbird” de Google cambió el enfoque general hacía las palabras clave de los tópicos. “Ya no se tiene que mencionar un término 20 veces en la página para ayudar a impulsar los primeros lugares de ese término, siempre y cuando todo el contenido de su artículo habla de cerca sobre de ese tema.” – Johnny Elton, analista de Web para Delegator.com

 

3) No pase por alto la optimización de una página de oportunidades

“Todavía es importante asegurarse de que cada página tiene un contenido único con los títulos adecuados (como H1, H2) y etiquetas de título HTML únicas y meta descripciones. Además, asegúrese de que en cada página el visitante es capaz de participar en el intercambio social. Usted sólo tiene unos pocos segundos antes de que el visitante deje su sitio o lo atraiga más, así que es importante que cada página esté ajustada con eso en mente “-. Mike Waller, propietario de las SEO Zones, Inc.

 

Mantenga las etiquetas de título de menos de 65 caracteres y descripciones meta de menos de 150 caracteres para evitar el truncamiento en los resultados de búsqueda de Google. “La etiqueta del título es un lugar ideal para la(s) palabra(s) clave(s) con las que desee alinear la página. Piense en la meta descripción como un titular. Se usa para tratar de convencer a los usuarios de hacer clic en su sitio en lugar de un sitio de la competencia en los resultados de búsqueda”-. Delegator.com ‘s Johnny Elton

 

4) Utilice “robots.txt” correctamente

El archivo existe “robots.txt” por el solo hecho de decirle a los motores de búsqueda cuáles páginas de su sitio no se deben rastrear. “He visto muchos sitios de pequeñas empresas y algunas Webs del mercado medio rediseñar sus sitios sólo para dispararse en el pie en el lanzamiento con etiquetas meta robots. Durante el proceso de desarrollo, es una buena idea bloquear a los motores de búsqueda de indexar su sitio cuando no está terminado, o en un servidor de desarrollo. Pero olvidar quitar las instrucciones “robots.txt” para bloquear su sitio para los motores de búsqueda una vez que esté terminado puede ser catastrófico para el lanzamiento de un sitio exitoso “-. De Scott Benson, fundador y presidente, Benson SEO

 

5) No utilice la misma etiqueta del título en todas las páginas

“Google toma la etiqueta del título meta muy en serio y no le ubicará en un mercado competitivo, si usted no tiene una palabra clave o una parte de ella en el título meta. Es un indicio para Google saber en cuáles búsquedas ellos te deben alinear, si apoyas esto con tu contenido. Crear páginas con contenido diferentes y único, pero no cambiar el título meta será simplemente perder tiempo y dinero en la creación de contenidos “-. Razvan Girmacea, CEO de Monitor Backlinks, Ltd.

 

6) Configuración de Google y Bing Webmaster Tools

“Tanto Google y Bing tienen herramientas para webmasters. Bing introdujo su primera, y cubre Yahoo. A pesar de que estas herramientas son muy técnicas, son muy fáciles de aprender a usar. Señalarán todo los detalles que el motor de búsqueda detecte, por ejemplo, si su sitio web o proveedor de alojamiento web ha sido hackeado o en peligro “-. David Quaid, director de marketing de entrada para KEMP Technologies.

 

7) Apéguese a prácticas ‘White-Hat

“He estado haciendo SEO desde 1999, y las reglas han cambiado dramáticamente. Sin embargo, la esencia ha permanecido igual: Asegúrese de que su sitio web está construido sobre una plataforma amigable SEO, y que es 100 por ciento “rastreable” y accesibles a las personas con discapacidad. Si una persona con discapacidad puede navegar por su sitio web, igual lo harán los robots de los buscadores. Los principios ‘White-Hat’ de SEO han vivido a través de cada actualización del algoritmo de Google, y es el único camino a seguir”-. Nataliya Yakushev, vicepresidente de gestión de la reputación, en Rubenstein Communications.

 

James A. Martin, CIO