Día: 5 abril, 2017

Nube y código abierto, crece en las estrategias de empresas mexicanas: IDC

Recientemente el área de Marketing de Red Hat e IDC unieron sus esfuerzos para realizar un estudio sobre el estado y las estrategias de uso del cómputo en la nube, el código abierto (open source) y OpenStack en 250 empresas con más de 500 empleados en las industrias de finanzas, manufactura, servicios, recursos naturales, salud, telecomunicaciones, manufactura, comercio, gobierno y educación. Las encuestas para elaborar el estudio se aplicaron durante los meses de febrero y marzo de 2017 en seis países de América Latina: Argentina, Brasil, Chile, Colombia, México y Perú.

La finalidad del estudio fue más allá de comprobar la forma en que estas tecnologías han sido ampliamente adoptadas, comprendiendo también otros aspectos como la asignación del presupuesto de TI a los modelos de nube y tradicionales, las razones que motivan a las empresas a usar OpenStack, cuáles son atributos de valor para elegir a un proveedor de servicios de nube, el posicionamiento de los principales proveedores de nube y código abierto, las herramientas más usadas con OpenStack API

  • En qué áreas de negocio hay un mayor impacto por el uso de la nube, OpenStack y código abierto
  • Principales beneficios y retos para implementar estas tecnologías

 

Los resultados del estudio nos ayudarán a comprender la forma en que las empresas están emprendiendo la transición de su modelo de consumo de CAPEX a uno de OPEX. También nos permitirá entender por qué las organizaciones han asignado menos presupuesto anual a los servicios de TI, hardware y software tradicionales, y, en contraste, han incrementado los recursos para contratar servicios de nube durante 2017. Todo lo anterior representa una oportunidad para impulsar el código abierto y OpenStack en América Latina.

 

La nube impacta más allá del área TI

Entre algunos de los hallazgos descubiertos por la consultora destacó que el 52% de las empresas usan la nube pública o privada, concentrando las estrategias de uso en “Todo en Cloud” (Cloud First) o “Cloud a lo largo de la empresa” (widespread use). Más del 38% de las empresas cuenta con un recurso especialmente asignado a la administración del cómputo en la nube.

Sin embargo, si bien al pensar en la nube nos remontamos al área TI, existen otras donde se percibe un fuerte impacto positivo, como Ventas, Mercadotecnia, Administración y Finanzas, principalmente en aplicaciones de negocios, almacenamiento y servidores de cómputo.

Las empresas asignarán un 27% de su presupuesto total al cómputo en la nube. Una tercera parte de las empresas afirmó tener como prioridad invertir en Software como Servicio (SaaS) así como también en Infraestructura como Servicio (IaaS).

En México el panorama es parecido. Un 44% de las empresas locales usan la nube (Pública o Privada), una cifra menor al promedio en América Latina. Sin embargo, 32% tiene ya planes de hacerlo en los próximos 12 meses. La estrategia de uso más común ha sido en Todo en cloud (37%).

Con respecto a las áreas de negocio donde se espera obtener mayores beneficios de la nube en los próximos tres años para empresas mexicanas está Ventas y Mercadotecnia con 47%, Producción y Lógistica con 42% y Finanzas y atención al cliente con 26%.

 

Libertad de proveedor, entre las razones para adoptar el Código Abierto

El código abierto u open source es actualmente utilizado en más del 70% de las empresas en un ambiente de producción. La mayoría considera que los beneficios serán más evidentes en áreas como la reducción de costos (52%), no depender del proveedor (46%) y la capacidad de personalizar el código fuente para desarrollar sus aplicaciones (41%).

El uso del código abierto se concentra principalmente en bases de datos, el desarrollo de aplicaciones y plataformas Web, así como en sistemas operativos.

En México, el código abierto tiene una mayor adopción que la nube (60%), pero abajo de la media en la región.

Los tres retos que las empresas mexicanas mencionaron en el estudio para poder adoptar el código abierto fueron la incertidumbre con respecto al soporte del proveedor: 58%; Bajo desempeño y confiabilidad del código: 37%; y Falta de recursos especializados y planes a futuro: 26%.

 

Ahorrar en costo de infraestructura, la ventaja del OpenStack

En cuanto al OpenStack, el 51% de las empresas encuestadas considera que ésta ofrece la ventaja de ahorrar costos en infraestructura; 46%, que ayuda acelerar la capacidad de innovación mediante un despliegue más rápido de sus aplicaciones; 44%, que se logra una mayor eficiencia operativa.

Las herramientas más populares para los desarrolladores de las aplicaciones con OpenStack API son: PHP- Opencloud (63%), Wroteyourown (37%) y OpenStackClient (34%).

 

RECOMENDACIONES DE IDC

Para conducir el mensaje de valor de las soluciones de nube, código abierto y OpenStack, la consultora nos recomienda:

  • Conocer las prioridades de las líneas de negocio para ayudar al área de TI a alinearse con sus estrategias, agregando valor al negocio
  • Aprovechar el momentum del código abierto ya ampliamente usado, como la base para desarrollar aplicaciones modernas en forma más ágil
  • Prepararse para desarrollar las habilidades de TI en el uso de nuevas tecnologías.

 

Nota de Prensa.

 

BlackBerry se enfoca en la seguridad IoT de las empresas

BlackBerry compartió hoy más detalles sobre su estrategia de licencias, que busca satisfacer la creciente necesidad de las empresas de contar con terminales y dispositivos conectados seguros en el entorno actual de la Internet de las Cosas.

La primera fase de la estrategia de BlackBerry fue anunciada en septiembre de 2016, la cual se enfocaba en ofrecer software Android más seguro e integral para smartphones de todo el mundo fabricados y comercializados por TCL Communication, PT BB Merah Putih y Optiemus Infracom Ltd. Con su nueva estrategia, la empresa busca llegar a más terminales, como tablets, dispositivos médicos, dispositivos wearables, electrodomésticos, terminales de punto de venta y otros smartphones.

“Los dispositivos conectados nos presentan una oportunidad única para mejorar la vida de miles de personas. Pero, si queremos aprovechar al máximo su potencial, tenemos que asegurarnos de que, desde el comienzo, la privacidad y la seguridad estén garantizadas en cada una de las terminales. Por ejemplo, las empresas que comercializan dispositivos médicos de monitoreo deben proteger los datos de salud del dispositivo, asegurarse de que se conecte de manera segura al sistema de salud y, aún más importante, garantizar que el dispositivo no pueda ser vulnerado. BlackBerry Secure ayuda a resolver estos tres aspectos”, dijo John Chen, Director Ejecutivo y CEO de BlackBerry.

“Hemos adoptado un enfoque pensado a largo plazo para desarrollar nuestra estrategia de licencias, que tiene una visión más amplia de todo el ecosistema empresarial en el mundo de la Internet de las Cosas. Como parte de esta estrategia, trabajaremos con una gran variedad de fabricantes para integrar el software BlackBerry Secure tanto en dispositivos marca BlackBerry como en dispositivos de marca compartida”, concluyó.

Elimine el temor hacia la Nube Híbrida

Desde hace unos seis años, en México surgió un auge importante de las tecnologías de nube, siendo a nube híbrida la mejor aceptada. Empresas de todo tamaño empezaron a considerarla como una alternativa importante que, sumada a la virtualización, podía disminuir las fuertes inversiones en hardware propietario. Muchas compañías comenzaron a hacer pruebas, otros se mantuvieron expectantes, sin embargo la fuerza con que el concepto de cómputo en la nube llegó, no dejó más alternativa que sumarse.

Desde luego surgieron muchos temores, el mayor de ellos – a partir del requerimiento de ser una empresa permanentemente activa, conocida como la AlwaysOn Enterprise- ha sido y está siendo, garantizar la disponibilidad de la información cuando se requiera y desde donde se requiera. Con el paso del tiempo muchas empresas han enfrentado y resuelto sus temores, he aquí cómo ha sido el proceso.

 

Temores y Soluciones

El primer temor que surgió entre los responsables de TI fue el no saber cómo se comportarían las cargas de trabajo que siempre habían residido en un ambiente físico, al migrarse a un ambiente virtual. Muchos lo solucionaron con capacitación y acompañamiento de un experto, con el apoyo de un fabricante que les asesorara sobre cómo construir una nube privada.

Curiosamente no terminaban de superarse los temores a la nube privada cuando ya en el ambiente se hablaba del impacto que podía tener, en la competitividad empresarial, el migrar o no a una nube híbrida.

Entonces el segundo temor fue el tener garantizada la disponibilidad de la información y aplicaciones en todo momento, así como contar con la certeza de dónde se encontraría la información en la nube pública.

Este temor se solucionó a través del uso de tecnologías diseñadas para centros de datos modernosque garantizan la disponibilidad de las máquinas virtuales y con las que se valida al 100%, mediante pruebas totalmente automatizadas, que la información protegida será restaurable, útil y consistente cuando se requiera.

Utilizando ésta tecnología se implementan planes de recuperación ante cualquier contingenciacon el correcto dimensionamiento de las necesidades de la empresa, de tal manera que se contraten los servicios que realmente se consumen entre los cuales esté, la garantía de que se tendrán el acceso al respaldo o réplica de forma rápida en el momento que se requiera y con la certeza de que el plan funcionará correctamente.

Así que, los encargados de la toma de decisiones deben ser un poco más exigentes ya que es indispensable verificar que el proveedor de servicios cuente con soluciones de disponibilidad efectivas y con la infraestructura adecuada que soporte la ejecución de un modelo de DRaaS y BaaS para la organización, validado por el fabricante para garantizar el correcto funcionamiento y ejecución de los servicios.De hecho, parte de la capacitación que ofrezca el proveedor de serviciosal equipo de TI, debe incluir las consideraciones propias de unplan de recuperación para un centro de datoson-premise, para uno  que considere recuperación ante desastres o uno en la nube.

Y es que el temor tiene su fundamento en que es muy sabido que contar con un centro de datos en sitio es más veloz, al no depender de un enlace; además de que tenerlos fuera del sitio implica siempre la inquietud de quién tienen mis respaldos y cómo han sido guardados por temas de seguridad.

De aquí surge el tercer temor,  elelegir al mejor proveedor de servicios. La solución en este caso se remonta a validar algunos aspectos como:

  • Agilidad y flexibilidad que ofrece el proveedor
  • Su visión hacia la nube y que permita ejecución de aplicaciones en la nube
  • Que cuente con altos niveles de seguridad
  • Que deje claro cómo va a administrar el trabajo en la nube para que se pague por lo que utilizo –debe entregar a la organización un reporte de uso de recursos
  • Que cuente con la tecnología adecuada para brindar disponibilidad y protección de los datos 24.7.365, analizando el valor que el proveedor ofrecepara garantizar que puede ejecutar y acceder a la información y las aplicaciones de misión crítica, en el momento que se requiera
  • Que cuente con tecnología que permita orquestar de manera controlada los planes de recuperación en caso de contingencia

La tecnología avanza velozmente y la competitividad de las empresas depende primordialmente de que tomen muy en serio, que deben garantizar la disponibilidad de la información en su proceso de transformación digital; son válidos los temores pero es importante que no paralicen a la organización sino que sean impulsores de un avance orquestado y estratégico desde el corazón mismo de la organización.

 

Por: Rodolfo Montes de Oca,

Ingeniero de Sistemas de

Veeam Software.

12 características que debe tener una red LAN bien administrada

Paessler AG nos comparte 12 peculiaridades que garantizan el buen mantenimiento de una red local LAN. Para asegurar que su red está funcionando bien como debería, David Montoya, Gerente de Canales de Paessler AG para Latinoamérica, señala los siguientes tips:

  1. Cableado organizado: Todo administrador de redes podrá contarnos una pesadilla con un armario para cableados o data center. Una pared virtual hecha de cables en forma de spaghetti; algunos largos, otros cortos, enrollados en un enmarañado sin motivo aparente. Hay acopiadores que amplían algunos cables, hay lazos que mantienen otros unidos y hay tantos colores que hasta Henri Matisse, el artista francés famoso por el uso de colores en sus dibujos, lloraría. Garantizar un buen mantenimiento de la red LAN requiere cables prolijos, fáciles de seguir, todos en sus lugares y conectados inteligentemente, de modo que sea fácil realizar el mantenimiento de la red y solucionar problemas.
  1. Padronización convencional de nomenclaturas: Un padrón consistente de la nomenclatura no sólo ayuda a solucionar problemas y crear nuevas conexiones, como también puede ser una alerta para dispositivos no autorizados.
  2. Equipos padronizados: Claro que usted puede mantener una red en funcionamiento con un switch, enrutadores y hub diferentes en cada armario de red, pero eso complica mucho más el mantenimiento de su LAN. Padronización no significa necesariamente todo igual. Un mismo tamaño raramente sirve para todos, pero un conjunto de equipos cuidadosamente elegido ofrece soporte y mantenimiento más fáciles.
  3. Las soluciones de monitoreo son para monitorear: Claro, usted tiene una herramienta de monitoreo de redes instalada. Usarla antes de que algo para de funcionar es la clave para el buen funcionamiento de una red. Ser proactivo en el monitoreo de datos garantiza que la red se mantenga en buen funcionamiento.
  4. Buen diseño del direccionamiento de la red y la subred: Cuando crecen, las pequeñas empresas generalmente sufren con el direccionamiento y las subredes. ¿La red comenzó con la dirección IP 192.168.0.1 y 255.255.255.0? ¿Qué sucedió después? ¿O, peor aún, la red todavía se ejecuta en 10.0.0.1 e 255.0.0.0? Todos desean un excelente diseño; pero las nuevas ubicaciones, el cierre de oficinas o el crecimiento pueden hacer que lo que antes era un proyecto inteligente se convierta en algo absurdo. La fusión o el cambio de empresas son más fáciles cuando existe un plan de direccionamiento bien proyectado, aunque haya superposición de direcciones.
  5. Documentación: Es obvio que usted sabe hacia dónde van esos cables y por qué ese switch está colocado en determinado piso. Pero, ¿y los demás? Una documentación bien almacenada permite realizar nuevos contratos o transferencias adecuadamente, e impide omisiones perjudiciales a la infraestructura de la red.
  6. Nada de arreglos rápidos: ¿La disposición de los dispositivos de conexión en la red no debía ser permanente? Las remiendos y los arreglos rápidos muchas veces son necesarios para dar continuidad a la productividad sin embargo, si uno no vuelve atrás y realiza las correcciones permanentes, acaba teniendo una red que funciona gracias al uso de una cinta adhesiva.
  7. ¡Hubs, switches y enrutadores, tantas cosas juntas! Olvídese del escenario ideal que le contaron sobre los equipos en una red. Una red en buen funcionamiento usa los dispositivos correctos para las situaciones necesarias. Un hub menor puede ser suficiente para las cuatro impresoras de laboratorio, otro switch puede ser adecuado para una remodelación y nada menos que un data center de enrutadores para aquél anexo. Mantener una red significa evaluar constantemente si uno está utilizando la herramienta correcta para la tarea en cuestión.
  8. Wi-Fi: En algún lugar, un departamento de TI vigila incansablemente que nadie use dispositivos inalámbricos en la red de la empresa, a pesar de que es probable que en su red existan muchos de esos dispositivos conectados. Mantener su LAN significa garantizar que su red inalámbrica está segura y robusta como la red de cables. Verifique regularmente la intensidad de la señal y asegúrese de que la superposición de canales se mantenga dentro de niveles mínimos. Busque los puntos de acceso deshonestos y deshágase de ellos.
  9. Redundancia: Independientemente de cómo usted mantiene su red en funcionamiento, algo sucederá en algún momento. Una red en perfectas condiciones de mantenimiento debe contar no sólo con la fuerza de una copia de seguridad, sino con la conectividad de la misma. Los puntos aislados de fallas son para las redes mal mantenidas.
  10. Recuperación de desastres: Las ocasiones de que suceda un desastre son imprevisibles. Pero en caso de que ocurra, usted debe estar preparado. Debe existir una copia de las configuraciones y una documentación de las rutas. Siempre que sea posible, el equipo de reemplazo debe estar disponible y listo para funcionar. Asegúrese de probar su plan de recuperación de desastres regularmente, ya que el peor momento para descubrir que no funciona es durante una emergencia.
  11. Estabilidad: Mantener una red en perfecto funcionamiento es importante, pero las interrupciones y los cambios constantes son un obstáculo para todos. Analice siempre las mejoras ante la necesidad de una interrupción potencial. Las improvisaciones para garantizar la seguridad y el desempeño siempre son necesarias, pero actualizar lo antiguo a lo nuevo puede esperar el momento justo. Use un protocolo formal de control de cambios para aprobar todos los cambios y verificar el mantenimiento programado, con el fin de minimizar el impacto a la productividad de la empresa.

N. de P. Paessler

4 consejos para proteger el sistema de videovigilancia de un ataque

Actualmente, las redes cibernéticas se encuentran constantemente bajo el ataque de nuevas y sofisticadas amenazas. La realidad es que el porcentaje de éxito de éstas es reducido.

Gran parte de los ataques cibernéticos son aleatorios, no van dirigidos a una víctima específica, sino que se focalizan en la búsqueda de redes o puertos vulnerables; registrando contraseñas fáciles de adivinar; identificando servicios desactualizados o enviando correos electrónicos maliciosos. Sin embargo, tanto las empresas como los usuarios finales no creen estar suficientemente protegidos.

De acuerdo con Pew Research Internet Project, el 61% de la población en México se siente expuesta a los ataques cibernéticos, todo ello debido al crecimiento en el uso de dispositivos inteligentes conectados entre sí además del desconocimiento de las posibles vulnerabilidades y los protocolos de seguridad.

¿Cómo se protegen los sistemas de videovigilancia ante un posible ataque cibernético?

En concreto para el sector de la videovigilancia, afortunadamente, las cámaras IP no están expuestas a las mismas amenazas que una PC ya que no cuentan con usuarios que inicien sesión, que instalen software, visiten páginas web o abran archivos adjuntos de correo electrónico. Sin embargo, estos equipos poseen características específicas que un hacker avanzado podría llegar a utilizar como plataforma para otros ataques.

Ante este panorama, en Axis proporcionamos 4 recomendaciones que reducirán los riesgos de ataques cibernéticos a un sistema de videovigilancia:

1 Conocimiento antes de exponer los equipos a la red

Resulta primordial conocer los protocolos de seguridad y actualizar el software de los dispositivos antes de conectarlos a la red. Los usuarios de las cámaras en red, hoy en día, quieren acceder al video de manera remota. Para ello, puede parecer una buena idea generar un punto de acceso en el router/firewall (conocido como punto de enlace), pero en realidad esto genera riesgos innecesarios. En el caso de las pequeñas empresas que no disponen de un VMS (Sistema de Gestión de Video), se sugiere utilizar un proxy para medios con un servidor web de Internet que cuente con la configuración correcta. Por otro lado, si existen varios sitios remotos, es recomendable en este caso utilizar VPN (Red Privada Virtual).

2 Crear contraseñas más seguras

Al igual que la mayoría de los dispositivos y sistemas habilitados para conectarse a Internet, la contraseña es la primera barrera de seguridad para impedir el acceso no autorizado a los datos digitales. Para generar una contraseña segura, se recomienda utilizar por lo menos 8 caracteres con una mezcla de letras en mayúscula y minúscula, números y símbolos especiales. Ante el escenario de un posible ataque cibernético se dificultará la irrupción a cualquier sistema con una contraseña con estas características.

En los pequeños negocios, es recurrente el acceso directo al sistema de videovigilancia mediante una contraseña, por lo que se recomienda utilizar frases largas pero fáciles de recordar. La mayoría de los sistemas y dispositivos habilitan campos para ingresar un sin número de caracteres para fortalecer sus contraseñas y reducir los riesgos de acceso no autorizado. En cualquier situación, siempre es mejor modificar la contraseña predeterminada.

3 Actualizar el Firmware y Software

Usualmente, el software es desarrollado y programado por una persona y por ello, pueden tener fallas. Por lo tanto, resulta probable que estas vulnerabilidades sean descubiertas con regularidad por atacantes cibernéticos. Si bien el error humano no puede erradicarse en su totalidad, día a día se trabaja para diseñar y probar sistemas de software con la menor cantidad de posibles brechas posibles antes de ponerlos en funcionamiento. En cualquier caso, se debe mantener actualizado regularmente el firmware y el software del sistema o dispositivo ya que si un hacker tiene acceso a un servicio de red desactualizado o sin parche es muy probable que su ataque tenga éxito.

4 Prevenir ataques dirigidos

Las empresas y las organizaciones con infraestructura crítica están expuestas a un número mayor de ataques dirigidos. Los hackers utilizan múltiples recursos e invierten más tiempo en estos casos para lograr su objetivo ya que si consiguen ingresar a un sistema bancario, un comercio o a la inteligencia de una ciudad, tienen la posibilidad de robar información muy privilegiada, manipular sistemas sin ser detectado y permanecer un tiempo indeterminado dentro de la red.

En conclusión, actualmente existen diversas herramientas de ciberseguridad para proteger a los usuarios, organizaciones y paralelamente se está invirtiendo cada vez más en el diseño de regulaciones, marcos legales y procedimientos de acción para actuar frente a este tipo de amenazas.

Francisco Ramírez, Country Manager de Axis Communications

 

Oracle niega tener planes de comprar Accenture

Diferentes medios de comunicación esparcieron el rumor de que Accenture podría ser adquirido por parte del gigante de las bases de datos, Oracle. Incluso, algunas fuentes llegaron a asegurar que Oracle ya había contratado a un grupo de especialistas para explorar la viabilidad de compra de la consultora de TI.

Accenture tiene una capitalización de mercado de 77.500 millones de dólares, por lo que llegar a un acuerdo con esta compañía le habría salido caro a Oracle.

Sin embargo, parece que esto ha sido falso ya que, según han publicado los portales de noticias estadounidenses Business Insider y The Register, además de las consideraciones financieras, la consultora ha evaluado los pros y contras de esta adquisición, como el impacto potencial que tendría en un canal como el de Oracle. “Aunque estas cosas tienen la costumbre de quedar en nada, hay jugadores bastante serios alrededor de la mesa”, expresaba un contacto de The Register.

El vocero de la compañía californiana, Deborah Hellinger, comunicó firmemente a Business Insider que este intento de compra nunca ha sido real. “No estamos comprando Accenture, ni siquiera lo hemos considerado. Es algo completamente inventado”.

 

IDG.es

AT&T está probando switches de código abierto para mejorar los servicios

AT&T señala que está realizando pruebas en su red principal utilizando switches basados ​​en chips de Intel, Broadcom y Startup Barefoot Networks.

Al igual que otros operadores y proveedores de nube, AT&T está cambiando su red hacia SDN (redes definidas por software). A medida que estos cambios se llevan a cabo a través de más infraestructura, deben dar -tanto a los proveedores de servicios como a los usuarios- más flexibilidad y mayor rendimiento.

AT&T calificó su ensayo como el primero de su tipo en la industria de las telecomunicaciones. Estableció interruptores de “caja blanca” de dos fabricantes diferentes, utilizando procesadores de tres proveedores.

Las tres compañías de chips venden procesadores de red que están disponibles para cualquier fabricante, ayudando a los proveedores a competir mejor con grandes nombres como Cisco Systems que diseñan algunos de sus propios chips.

El chip de Barefoot destaca por sus capacidades y novedad. Anunciado en junio pasado, el Tofino está diseñado para ser más altamente programable que el silicio de conmutación convencional. También promete alto rendimiento, con velocidad de 6.5Tbps (bits por segundo).

AT&T empezó a trabajar con Barefoot y el fabricante de cajas blancas Edgecore Networks. En menos de tres meses, tenían un conmutador basado en el diseño Wedge 100 de Facebook, que no sólo estaba enrutado estándar, sino que también estaba programado para nuevas funciones de procesamiento de paquetes. Esas capacidades proporcionan información en tiempo real sobre el estado de cada paquete en la red.

Esto abrirá nuevas capacidades de la misma manera agregando GPS a los teléfonos, dijo Fuetsch. Lo que ayudará a AT&T entregar características inalámbricas de 5G, incluyendo alta velocidad y baja latencia.

Eso llevará a que las redes sean capaces de detectar y responder a las necesidades de cada aplicación. La tarea de hacer coincidir los requisitos de la aplicación con la capacidad de la red, ya sea en un centro de datos o en la nube de un proveedor de servicios, habrá terminado.

Pero esto no ocurrirá en un día, la meta de AT&T, para este año es que el 55% de sus funciones de red se ejecuten en SDN.

Stephen Lawson

 

Nest llega a México con sus cámaras inteligentes de seguridad

Nest entra al mercado latinoamericano con el lanzamiento de sus cámaras de seguridad, Nest Cams, siendo México el primer país de la región.

“La idea de nuestros productos es que sean fácil de usar y útiles para los usuarios, haciendo sus casas o negocios más seguros y más confiables”, comentó Matt Rogers, fundador y director de Producto de Nest en el evento de presentación.

La primera de ellas es Nest Cam Indoor, que como su nombre lo indica, está pensada para vigilar interiores, mientras que la Nest Cam Outdoor para exteriores es resistente a lluvia, polvo y calor extremo, pensada para soportar cualquier condición externa. Ambas cámaras cuentan con las mismas prestaciones, siendo sólo el factor de resistencia el diferenciador.

Las Nest Cams se conectan a través de una aplicación móvil disponible para el usuario Android e iOS, o una computadora vía browser, teniendo visibilidad del entorno en cualquier momento, sin importar dónde se encuentre gracias a ser una cámara cloud.

Ofrece calidad de video superior con un lente de cristal que graban en HD de 1080p, visibilidad de 160° y visión nocturna con 8 sensores led infrarrojos que iluminan la escena para mejor definición de detalles. Las Nest Cam también captura audio en alta calidad, para poder ver y escuchar una escena, siendo una herramienta de comunicación útil en caso de emergencias.

De la mano de las Nest Cams, se presenta el servicio de almacenamiento a la nube Nest Aware, donde se dirige el video grabado. Las cámaras no cuentan con storage interno. ” Uno de los objetivos de montar el servicio totalmente en la nube es poder ofrecer servicios más inteligentes que puedan abrir paso al hogar inteligente del futuro”, afirmó Rogers.

Una suscripción a Nest Aware permite tener respaldo de su video en caso de robo físico de cámara, permitiendo un historial de videos por fechas y hora exactas, logrando almacenar 10 días continuos, con suscripción básica o hasta 30 días con suscripción extendida. El video se puede descargar y compartir.

“Uno de nuestros principales diferenciadores es nuestro software. Contamos con historia del video que facilita la navegación por horas de manera sencilla”, afirmó Antonio López Prados, director de Desarrollo de Negocios de Nest para América Latina.

Gracias a este software, el usuario puede recibir alertas en tiempo real cuando la cámara detecta un movimiento o sonido anormal, permitiendo grabar en el momento con un solo clic, sin importar dónde se encuentre. Además, el usuario puede programar momentos de grabación, por ejemplo, comenzar a capturar sólo cuando se está fuera de casa u oficina, protegiendo la privacidad.

 

Precio y Disponibilidad

Las Nest Cams ya están disponibles en México a través de retails.

Nest Cam Indoor se encuentra a un precio sugerido de 4,999 pesos.

Nest Cam Outdoor, precio sugerido 5,499 pesos.

Suscripción de Nest Aware está disponible desde 200 pesos al mes o 2,000 al año.

 

-Karina Rodríguez, Computerworld México.

Android se convierte en el SO más popular para navegar en internet

Según Stat Counter, Android es el sistema operativo más popular en cuanto al uso de Internet, de este modo, el sistema operativo de Google ha superado a Windows en uso de Internet, en computadoras de escritorio, portátiles, móviles y tabletas. El análisis de Stat Counter ha concluido que, en el mes de mayo, Android ha encabezado el uso global de Internet, con un 37.93%, mientras que Windows se ha quedado en las puertas de la cabeza de la clasificación con un 37.91%.

Según ha declarado el CEO de StatCounter en un comunicado de prensa de la compañía: “Se trata de un hito en la historia de la tecnología y del fin de una era. Marca el final del liderazgo de Microsoft, que se había mantenido en esta posición desde 1980. También representa un momento significativo para Android, que hace solamente cinco años poseía únicamente un 2.4% del uso global de Internet.” Además, el CEO de la compañía también determinó que estos nuevos datos reflejaban la entrada y la imposición de los smartphones como principales dispositivos para el acceso a Internet.

A pesar de ello, tal y como corroboran los datos de esta misma compañía, Windows sigue siendo líder en aparatos de escritorio, con un uso de Internet del 84% en estos dispositivos. De este modo, para asegurarse un rol como actor predilecto en el mercado, el gigante de Internet tendría que conseguir un hueco en el mercado de los smartphones para destronar a Android como líder del uso de Internet y volver a su posición predilecta.

Samsung, por su parte, acaba de lanzar la actualización de su modelo estrella, con el nuevo Samsung Galaxy S8, que la compañía ha lanzado con un tamaño estándar pero también en su versión plus, que tiene una pantalla más grande. Además, la compañía sigue invirtiendo en realidad virtual, y presentó su nuevo dispositivo con un anuncio en el que salía una avestruz que, gracias a su dispositivo, era capaz de volar, y que disfrutó de un gran recibimiento en redes sociales.

NetworkWorld

 

Los recortes de Trump ponen en riesgo la ciencia y tecnología de Estados Unidos

La Unión Americana podría transformarse como China y otros gigantes asiáticos podrían comenzar a liderar el mercado de áreas como la supercóputo, la robótica o la inteligencia artificial si el presidente consigue aprobar los presupuestos más limitados de la historia.

Estados Unidos ha sido históricamente la primera potencia tecnológica mundial tanto en el terreno de la innovación como en el de la inversión en nuevas tecnologías. De hecho, estamos hablando del país que financió y creó Internet, uno de los hitos más importantes de los últimos tiempos. Pero una amenaza interna acecha el liderazgo TIC del país. Y no es otra que el propio presidente Donald Trump. El presupuesto que pretende aprobar puede hacer del líder quede en los siguientes años como un recuerdo.

Es más, el país mira con recelo como el magnate pretende acabar con la buena sintonía tradicional entre demócratas y republicanos en el campo de la ciencia y la tecnología. Desde mediados del siglo XIX ambos bandos mantienen acuerdos y conversaciones que han hecho de los Estados Unidos un pionero de la revolución tecnológica.

A pesar de que falta por culminar muchos detalles sobre los nuevos presupuestos, todo hace indicar que éstos experimentarán el mayor recorte jamás visto lo que otorgaría grandes ventajas a sus rivales. Por ejemplo, China podría asegurarse el liderazgo en supercomputación y “atrapar partes rentables en la economía de los Estados Unidos”, según un informe interno. Además, la región de Asia Pacífica se haría con la mayor parte del mercado de la robótica. En 2016, otro estudio ponía de relieve que los países asiáticos habían mejorado la labor norteamericana en cuanto a inteligencia artificial y deep learning.

Bajo el plan de Trump, el dinero para los Institutos Nacionales de Salud se reduciría un 18%, los programas científicos de la Agencia de Protección Ambiental caerían un 40% (incluyendo toda la investigación sobre el cambio climático), y la National Scien Foundation, que entre otras cosas proporciona fondos de investigación para la ingeniería informática, perdería un 10% de sus ingresos. “Dado que las agencias financian una gran cantidad de investigación en universidades, los recortes pueden acabar prematuramente con muchas carreras para la próxima generación de investigadores”.

Estos recortes vienen marcados por unos tiempos que ya hacían pensar que los Estados Unidos ya estaban cediendo parte de su supremacía tecnológica a otras potencias. Es por ello que llegan en medio de la confusión y el enfado de la industria respecto a la figura del presidente.

Redacción