Día: 29 septiembre, 2017

SQL Server 2017 estará disponible para Linux, Windows y Docker

En el marco del evento Ignite 2017, que se realiza esta semana en Orlando, Microsoft dio a conocer el nuevo SQL Server 2017 –primera versión de SQL Server para ejecutarse en Windows Server, Linux y Docker– que estará disponible a partir de este 2 de octubre, así como actualizaciones al Azure Machine Learning. “Con estos y otros anuncios, se fomenta una nueva generación de aplicaciones inteligentes y modelos de IA (Inteligencia Artificial)”, afirmó John ‘JG’ Chirapurath, General Manager of Data Product Marketing de Microsoft.

En entrevista con CIO México, Chirapurath destacó que SQL Server fue la primera base de datos nacida en la nube que también está disponible en configuraciones on-premise. “Ahora, y por primera vez, SQL Server 2017 aporta la potencia de esta base de datos a los contenedores de Windows, Linux y Docker, para que los desarrolladores puedan crear aplicaciones inteligentes utilizando su idioma y entornos preferidos, con altos niveles de rendimiento y seguridad de datos”.

John ‘JG’ Chirapurath, General Manager of Data Product Marketing de Microsoft.

En el evento también se anunció la versión Microsoft SQL Server 2017 sobre Red Hat Enterprise Linux, con la cual los usuarios pueden obtener una experiencia de base de datos consistente en la nube híbrida, ya sea localmente (on-premise) o a través de Proveedores Certificados de Nube y Servicios de Red Hat que ofrecen SQL Server, entre ellos Microsoft Azure, con Red HatEnterprise Linux actuando como puente común, dijo el directivo de Microsoft.

Agregó que el propósito de su compañía es que mediante Azure se impulsen “nuevos niveles de productividad organizacional, experiencias inteligentes basadas en datos y una confianza empresarial más profunda”, todo ello a través de un enfoque híbrido único y consistente a través de datos, aplicaciones e infraestructura, ya sea en forma local (on-premise) o en la nube.

Por lo que respecta a las nuevas actualizaciones de Azure Machine Learning, “éstas proporcionarán a los desarrolladores de Inteligencia Artificial (IA) y científicos de datos un nuevo conjunto de herramientas para desarrollar y administrar el aprendizaje automático y los modelos AI ya sea en la nube, en las instalaciones de la organización o en la periferia de la red (edge)”. También harán que los desarrolladores de IA y los científicos de datos sean más productivos aprovechando los frameworks, herramientas y tiempos de ejecución de código abierto más populares, señaló el entrevistado.

 

Las novedades

La compañía de Redmond aprovechó el Ignite 2017 para dar a conocer diversos lanzamientos entre los que destaca la disponibilidad de Azure Stack a través de socios OEM como Dell EMC, Lenovo y HPE. Esta extensión de Azure, permite a las organizaciones crear e implementar aplicaciones usando exactamente las mismas API, herramientas y experiencias que tendrían en la nube Azure.

También se efectuó el lanzamiento de un Servicio de Migración de Bases de Datos totalmente automatizado, así como una Instancia Administrada de DB SQ para que los clientes puedan trasladar fácilmente sus bases de datos SQL Server locales a una base de datos de Azure SQL.

Finalmente, Chirapurath dio a conocer la integración de Azure CosmosDB –el servicio de base de datos distribuido en forma global– con Azure Functions –la oferta sin servidor de la compañía– con lo cual los desarrolladores pueden escribir aplicaciones con sólo unas pocas líneas de código y de esta forma innovar más rápido para reaccionar ante “eventos” ocasionados por sensores IoT (Internet de las Cosas), cambios en la base de datos y más.

 

– José Luis Becerra, CIO México

Ciudades latinoamericanas no están listas para ser Smart

El concepto de la Ciudad 4.0 o smart city comprende un espacio geográfico, cultural, político y administrativo en el que el gobierno y la comunidad adoptan el uso inteligente de las TIC para permitir innovación y desarrollo sustentable, al menos así lo describe Alejandro Prince, director de Prince Consulting.

“La ciudad 4.0 es otra fase de la revolución cognitiva”, señaló Prince. “Internet de las cosas, big data, IA (Inteligencia Artificial), la nube y blockchain, entre otras tecnologías, se utilizan para lograr convertir más datos en información, más información en conocimiento y éste en inteligencia para resolver problemas y crear valor cívico”.

La adopción de las TIC en el contexto de la Ciudad 4.0 permite generar oportunidades de innovación para el futuro desarrollo de las capacidades individuales y colectivas de una comunidad formada por Gobierno, empresas, sociedad civil y la academia. Además del componente tecnológico se requiere consenso político para llevar a cabo los proyectos relacionados con las ciudades inteligentes.

“Sólo el 1% de las ciudades latinoamericanas están utilizando inteligentemente las TIC para ser Smart Cities. La barrera no es tecnología ni económica, sino la voluntad política y el consenso para hacerlo”, comentó el experto.

El especialista destacó elementos históricos del desarrollo tecnológico que llevan a la dotación de infraestructuras y ecosistemas presentes en la ciudad de nuevas soluciones basadas en conectividad y servicios digitales. En el contexto de una tercera revolución industrial enfocada en la colaboración, Internet figura como un elemento central que involucra el uso humano, pero también las comunicaciones entre máquinas en el contexto del Internet de las Cosas (IoT).

La conectividad aparece como un elemento central que permite conectar las comunicaciones entre personas, máquinas y entre todo el ecosistema tecnológico. La personalización de dispositivos y plataformas permite aumentar el uso de servicios del IoT, cómputo en la nube, inteligencia artificial y analítica de Big Data. Estas soluciones digitales, habilitadas por conectividad de redes que incluyen las móviles, conectarán a la infraestructura de la ciudad (como transporte y energía) con servicios que permitirán hacerlas más “inteligentes”.

Esta inteligencia se deriva no de la aplicación en sí de la tecnología, sino de la capacidad de extraer más información de estas infraestructuras, analizarla y generar valor a través de la mejora de procesos, la planeación urbana y los servicios prestados a la sociedad.

Prince subrayó que durante su presentación, la importancia del desarrollo tecnológico para permitir, por ejemplo, la reducción histórica en el precio de la producción de tecnología y pronósticos de apropiación de las TIC. Así, se espera que para 2020 el número de dispositivos conectados por persona rebase los 6,5, situación que impulsa a su vez el concepto de las ciudades inteligentes por la capacidad de comunicar a las infraestructuras y los servicios con el usuario final a través de más dispositivos y aplicaciones.

 

N. de P.

Microsoft SQL Server 2017 disponible sobre Red Hat Enterprise Linux

En el mundo empresarial no existe lo “suficientemente bueno”. Los usuarios finales, clientes y socios siempre esperan más, y si una organización es incapaz de evolucionar para satisfacer estas necesidades, es probable que afronte muchos problemas en el futuro. Estamos observando cómo las empresas están haciendo esto transformándose digitalmente o utilizando tecnologías de software emergentes para abrir nuevas fuentes de ingresos y atender mejor las exigencias de sus clientes y socios. Sin embargo, uno de los aspectos clave de la transformación digital es la libertad de elección.

Las organizaciones de TI no quieren depender de un paquete único de tecnologías. Quieren tener acceso a las mejores soluciones que se adecuen a sus necesidades particulares, independientemente del proveedor o la comunidad detrás de determinada tecnología.

En este respecto, Red Hat busca facilitar la libertad de elección de sus clientes, lo que se refleja en la alianza que ha establecido con Microsoft, la cual se refrendó recientemente. Los usuarios finales no sólo podrán acceder a Red Hat Enterprise Linux y Red Hat OpenShift Dedicated a través de Microsoft Azure y desarrollar e implementar aplicaciones NET Core en toda la cartera de código abierto de Red Hat, sino que también, y por primera vez, podrán ejecutar contenedores Windows Server junto con cargas de trabajo de Red Hat Enterprise Linux sobre Red Hat OpenShift. Todas estas opciones ayudan a abrir nuevas posibilidades para los centros de datos que funcionan con soluciones de Windows y de Red Hat Enterprise Linux.

Es por ello que anunció la consolidación de Microsoft SQL Server 2017 sobre Red Hat Enterprise Linux. Como la plataforma Linux de referencia para Microsoft SQL Server 2017, SQL Server 2017 ha sido objeto de pruebas exhaustivas con Red Hat Enterprise Linux y los resultados apuntan hacia una solución que ofrece un rendimiento superior de las aplicaciones y una plataforma empresarial más segura y confiable, diseñadas para las actuales cargas de trabajo de misión crítica y para implementaciones de tecnologías emergentes como los contenedores Linux y el Internet de las Cosas (IoT, por sus siglas en inglés).

Los clientes ahora pueden combinar los recursos de base de datos empresariales y las capacidades analíticas de SQL Server con la plataforma Linux, fusionando escalabilidad y flexibilidad para las organizaciones de TI en las capas del sistema operativo y la base de datos.

Con Microsoft SQL Server 2017 sobre Red Hat Enterprise Linux, los clientes obtienen:

  • Una experiencia de base de datos consistente en la nube híbrida ya sea localmente (on-premise) o a través de Proveedores Certificados de Nube y Servicios de Red Hat que ofrecen SQL Server, entre ellos Microsoft Azure, con Red Hat Enterprise Linux actuando como puente común.
  • Microsoft SQL Server 2017 en un contenedor Red Hat Enterprise Linux, que permite a los desarrolladores generar con más facilidad implementaciones de Microsoft SQL Server 2017 preconfiguradas, junto con las dependencias necesarias, para su implementación sobre Red Hat Enterprise Linux. Tanto Microsoft SQL Server 2017 para Red Hat Enterprise Linux como Red Hat Enterprise Linux también estarán disponibles a través de Azure Marketplace.
  • Resolución optimizada de problemas con el soporte integrado de Red Hat y Microsoft, una oferta que se anunció por primera vez en 2015 y que brinda soporte integral a los clientes con entornos que combinan Microsoft y Red Hat durante todo el ciclo de vida. Este soporte hoy se amplía para incluir a Microsoft SQL Server 2017 sobre Red Hat Enterprise Linux.

“Nos complace ofrecer a nuestros clientes opciones líderes de la industria para sus necesidades de TI, ya sea para implementar contenedores de Red Hat Enterprise Linux utilizando Red Hat OpenShift en una de las nubes empresariales más grandes, Microsoft Azure, o desarrollar aplicaciones de bases de datos nuevas y potentes con Microsoft SQL Server 2017 sobre Red Hat Enterprise Linux. Red Hat y nuestros socios están ayudando a preparar el camino para la transformación digital y estas nuevas soluciones ofrecen a las empresas las herramientas necesarias para su transformación”, apunta Jim Totton, vicepresidente y director general de la Unidad de Negocio de Plataformas, Red Hat.

Cinco pilares de la administración de API con ciclo de vida completo

Las API impulsan a las empresas para modernizar rápidamente sus arquitecturas heredadas, agregar valor a los activos TI existentes y crear nuevas oportunidades de negocio. Sin embargo, exponer los sistemas de esta manera puede también crear nuevos retos para la seguridad, escalabilidad y gobernabilidad. Una administración de API le ayudará a cumplir con estas obligaciones.

 

¡Aquí le decimos cómo hacerlo!

Epson lanza equipos enfocados en el sector alimenticio

Epsons presentó su equipo enfocado en el sector alimenticio, se trata de la impresora de alta velocidad Epson ColorWorks C7500, especializada en etiquetas a color e impresiones personalizadas para empresas del sector.

Una de las ventajas de este equipo es la impresión de etiquetas en una sola etapa, reduciendo los costos de pre-impresión. Cuenta además con tecnología PrecisionCore que genera una impresión uniforme, además de incluir un sistema de mantenimiento automático.

Para el área de envasado e impresión de empaques, Epson lanzó impresoras de etiquetas de alta calidad. El equipo ColorWorks C3500 es la solución que tiene para atender la demanda de etiquetas a color con una amplia gama de opciones de sustratos.

Adicionalmente cuentan con la impresora para punto de venta (POS, por sus siglas en inglés) TM-T88V-DT. Es una solución útil para comercios minoristas que requieren potencia de cómputo y una mayor flexibilidad de configuración basada en Internet, además de proveer al usuario dinamismo en sus procesos gracias a sus interfaces duales de conexión a redes y tener un diseño ultra compacto.

“La impresión no se cierra a un solo mercado, al contrario, cada vez detectamos más oportunidades en distintos sectores. En Epson entendemos la necesidad de ofrecer soluciones adaptables a cada tipo de industria con tecnología que no sólo cumpla su función, sino que sea un activo que ayude a cumplir objetivos económicos y de desarrollo”, señaló Teresa González, Gerente de Producto de las Líneas de impresoras ColorWorks y Punto de Venta de Epson México.

La compañía espera que con esta nueva gama de impresoras de etiquetas ColorWorks, así como las térmicas portátiles, la industria alimenticia en la parte minorista y la mayorista.

 

N. de P.

D-Link presenta Switches gestionables enterprise accesibles para Pymes

La familia de Switches Gestionables DGS-3000 Series Layer 2+ Managed Gigabit. Las funciones de Capa 2 avanzada (L2+) y un conjunto de herramientas de seguridad y administración con línea completa de Comandos CLI hacen que los DGS-3000 se adapten a cualquier entorno, tanto en el núcleo de red como en los enlaces, desde grandes empresas a campus, proveedores de servicios o aplicaciones Metro Ethernet para Smart City. Los DGS-3000 ofrecen múltiples opciones y alta densidad de puertos (hasta 48) de cobre o fibra, con puertos Gigabit, PoE/PoE+, SFP Gigabit y SFP+ 10GbE.

Características

La familia D-Link DGS-3000 de Switches Gigabit Gestionables L2+ inc luye funcionalidades de Capa 2 avanzada (L2+) con routing estático, QoS robusto, con control de ancho de banda por puerto y por flujo de tráfico, IGMP y Multicast VLAN y opciones de seguridad, como IMPB (vinculación IP-MAC-Puerto), Control de servidor DHCP y prevención de ARP Spoofing. Además, cuenta con switches Gestionables por interfaz Web y línea completa de Comandos CLI (Puerto de Consola, Telnet, SSH), SNMP y RMON, capacidades Metro Access Switch (Metro Ethernet), Puertos Gigabit cobre o fibra, enlaces 10 Gigabit y puertos PoE/PoE+ (Power Over Ethernet) para alimentación de dispositivos por el cable de red.

La protección 6 kV contra sobretensión en cada puerto, la función ERPS (Ethernet Ring Protection Switching) y las opciones 802.3ah OAM maximizan la disponibilidad del servicio.

Características Multicast, las funciones de multidifusión de capa 2 permiten que las transmisiones de IPTV se distribuyan de forma eficiente. Por otra parte, la solución completa de seguridad con listas de control de acceso (ACL) y múltiples formas de autenticación de dispositivos/usuarios. Además, ITU-T G.8032 permite un cambio de topología en 50 milisegundos en caso de fallo, minimizando la interrupción del servicio. La agregación de enlaces IEEE 802.1AX y 802.3ad permite agrupar varios puertos para proporcionar redundancia y equilibrar la carga en entornos de críticos. El Apilado virtual (SIM), de forma que hasta 32 switches separados físicamente se administren mediante una dirección IP única y las funciones como la compatibilidad RADIUS permiten integrar los switches con sistemas back-end para facturación o control de acceso avanzado. Garantía ilimitada de por vida La familia de Switches Gigabit Gestionables L2+ DGS-3000 dispone de cuatro modelos para cubrir todas las necesidades en conectividad Gigabit y 10 Gigabit con enlaces de cobre o fibra.

Dependiendo del modelo, los precios PVP con IVA van desde los 787 dólares a los 1235 dólares. DGS-3000-28LP: 24 puertos Gigabit (todos PoE) + 4 puertos SFP; DGS-3000-28X: 24 puertos Gigabit (todos PoE) + 4 puertos 10G SFP+ DGS-3000-28XMP: 24 puertos Gigabit (todos PoE+ 802.3at, Budget 370W) + 4 puertos 10G SFP+ DGS-3000-52X: 48 puertos Gigabit + 4 puertos 10G SFP+.

Redacción

Un 30% de la inversión en Data Center se dirige a prevención de desastres naturales

El 30 por ciento de la inversión en la implementación de un centro de datos se destina a la seguridad y prevención de riesgos ante contingencias, tales como sismos y otros fenómenos naturales, al menos así lo dieron a conocer expertos en riesgos sísmicos en los Data Centers, dentro del DCD México 2017.

Debido a la planeación que hay previo a la instalación de los data center, los daños en los centros de datos de México fueron mínimos tras el sismo del 19 de septiembre.

Garcerán Rojas, Presidente de PQC explicó que la inversión que se realiza en la puesta en marcha de un data center, que es muy alta, debe ser directamente proporcional a las medidas de seguridad que se contemplan para preservar la integridad del inmueble, incluso ante contingencias ambientales.

Por separado José Luis Friebel, Director de General de DatacenterDynamics para España y Latinoamérica señaló: “las medidas de seguridad ante este tipo de contingencias son una prioridad en el sector, sobre todo si consideramos que los centros de datos son uno de los activos más importante de las empresas”.

Detalló que tras un terremoto, la primera falla en los data center suele ser la falta de suministro eléctrico, por lo cual es fundamental mantener el funcionamiento de los Sistemas de Alimentación Interrumpida (UPS, por sus siglas en inglés), las baterías y los generadores además de contar con redundancia de los sistemas eléctricos.

 

N. de P.