Rápida adopción de la inteligencia artificial (IA) y el llamado machine learning o aprendizaje automático han dado paso a la cuarta revolución industrial, y la infraestructura está en una lucha para mantener el ritmo. A través de la historia, hemos visto sociedades transformarse de rural a industrial, de producción industrial a producción en masa, y de producción en masa a digital. Actualmente, se espera que las máquinas y los servicios inteligentes generen nuevas industrias, que hagan que muchas otras existentes caduquen, y así transformar significativamente a la sociedad.

La capacidad de transformar datos en inteligencia es la nueva moneda cambio, independientemente de la industria en la que se esté. En la actualidad, las empresas B2C tradicionales como Nike, Domino's Pizza y Nordstrom son compañías no solo de consumo, sino también de tecnología. Para seguir siendo competitivos en un mercado de bienes de consumo cada vez más saturado, requieren de conocimiento en tiempo real de lo que sus clientes quieren, así como dónde y cuándo lo quieran.

En el sector salud, los neuro-radiólogos de Mayo Clinic utilizan IA para identificar marcadores genéticos en las imágenes por resonancia magnética, que evita que los médicos forzosamente deban recuperar el tejido tumoral a través de procedimientos quirúrgicos intrusivos. Amazon ha aprovechado las mismas tecnologías que impulsan los vehículos autónomos, como la fusión de sensores y la inteligencia artificial, hasta el concepto de Amazon Go, un supermercado sin líneas de pago. Incluso las industrias tradicionalmente rurales, como la agricultura, han utilizado IA: LettuceBot cosecha el 10% de la cosecha de lechuga en Estados Unidos utilizando IA, la cual estudia cada planta en tiempo real para optimizar los rendimientos.

El auge de la inteligencia artificial ha sido impulsado por la convergencia de tres tecnologías clave: aprendizaje profundo (DL, por sus siglas en inglés), procesadores de unidades de procesamiento de gráficos (GPU, por sus siglas en inglés) y la capacidad de almacenar y procesar conjuntos de datos de gran tamaño a gran velocidad.

DL es un nuevo modelo de cálculo, que utiliza redes neuronales paralelas masivas inspiradas en el cerebro humano. En lugar de que expertos elaboren software a mano, un modelo de aprendizaje profundo escribe su propio software aprendiendo de un conjunto masivo de ejemplos. Una GPU es un procesador moderno con miles de núcleos, el más adecuado para ejecutar algoritmos que representan vagamente la naturaleza paralela del cerebro humano. Ambos son importantes avances que han cambiado completamente los enfoques tradicionales de la innovación.

Lo que nos lleva a la tercera pieza: Big Data. Si bien el volumen de datos no estructurados se ha disparado, el almacenamiento heredado construido para albergar esos datos no ha cambiado fundamentalmente en décadas. El aprendizaje profundo y las GPU son masivamente paralelos, pero las tecnologías de almacenamiento no se diseñaron para estas cargas de trabajo: fueron diseñadas en una era con un conjunto de expectativas totalmente diferentes en cuanto a velocidad, capacidad y requisitos de densidad. Se han convertido en un cuello de botella para las organizaciones que quieren convertir Big Data en una gran ventaja a través de la inteligencia en tiempo real. En los últimos dos años, la cantidad de cómputo requerido para ejecutar algoritmos de aprendizaje profundo de vanguardia ha aumentado 15 veces. El cálculo entregado por GPU ha aumentado 10 veces. En general, el almacenamiento se ha mantenido estancado.

Entonces, ¿qué necesita una organización moderna de su almacenamiento en la era de la nube? Aquí hay tres cosas que debe buscar:

1. El almacenamiento de la era de la nube es 100% flash. En los últimos ocho años más o menos, la megatendencia en los medios de almacenamiento ha sido un cambio rápido de los sistemas de disco mecánico al estado sólido o 100% flash. Los electrónicos de consumo impulsaron la adopción masiva de flash, reemplazando el disco en laptops y teléfonos por flash como nuevo medio. En general, flash es 1000 veces más rápido, 10 veces más eficiente y, sin partes móviles, lo que se traduce en mucha más resistencia. La velocidad que flash ha traído a la ecuación es un habilitador de innovaciones de última generación, tanto como cualquier otro elemento.  

2. El almacenamiento de la era de la nube es masivamente paralelo y elástico. Los programas de inteligencia artificial, analítica avanzada, deep learning y machine learning están diseñados para imitar al cerebro humano, que es el sistema más paralelo que conocemos en la actualidad. Una gran cantidad de aplicaciones modernas, en particular de inteligencia artificial, son apps escalables que están diseñadas y se espera que crezcan horizontalmente a lo largo del tiempo. Esto significa que las organizaciones modernas requieren una infraestructura que pueda crecer tanto horizontal como verticalmente. A medida que los proyectos crecen y evolucionan, a medida que las organizaciones ingresan y analizan más datos para obtener un valor adicional, es difícil anticipar por completo las necesidades futuras. Es crítico para una organización dejar la flexibilidad de escalar sin una arquitectura completa o un doloroso desmantelamiento y reemplazo.

3. El almacenamiento de la era de la nube es simple. La mayoría de las organizaciones no tienen el tiempo o los recursos para construir sistemas de almacenamiento desde cero, ni la plantilla para dedicar un profesional de TI altamente capacitado a la administración del almacenamiento. Las organizaciones modernas necesitan almacenamiento que simplemente funcione: con alto rendimiento, alta densidad, optimizado para cualquier carga de trabajo, sin la necesidad de tanta gestión. TI en la nube ha impulsado un cambio importante en las expectativas del cliente, y la simplicidad es el principio básico.

Si los datos son la nueva moneda de cambio para la cuarta revolución industrial, el sistema que entrega los datos simplemente no puede basarse en bloques de construcción de hace décadas. Un almacenamiento lento significa un rendimiento de aprendizaje automático lento. Imagínese a un corredor de maratón sediento tratando de hidratarse después de la carrera a través de un popote muy delgado. En esencia, esto es lo que sucede con los datos de la organización que se ejecutan en el almacenamiento del pasado. En última instancia, gran parte de los conocimientos disponibles permanecen encerrados en los datos. Para verdaderamente aprovechar la cuarta revolución industrial, existe una gran necesidad de innovación: una nueva plataforma de datos que se reinventa desde cero para la era moderna de la analítica inteligente.

 

Douglas Wallace, Gerente General de América Latina y El Caribe (excepto Brasil) de Pure Storage

 

 

Te podría interesar:

HyperX expande sus líneas de productos FURY DDR4 e Impact DDR4HyperX expande sus líneas de productos FURY DDR4 e Impact DDR4
16 Abr 2018 20:41 - Redacción

  HyperX anunció la incorporación de módulos de memoria de mayor velocidad en las líneas de  [ ... ]

BMC anuncia mejoras en la capacidad de transferencia administrada de archivos para Control-M BMC anuncia mejoras en la capacidad de transferencia administrada de archivos para Control-M
03 Abr 2018 22:44 - Redacción

  BMC extendió su oferta  de Control-M Managed File Transfer, para que incluya soporte para to [ ... ]

Intel presenta su nuevo procesador Core i9Intel presenta su nuevo procesador Core i9
03 Abr 2018 22:48 - Redacción

  Intel anunció el primer procesador Intel Core i9 para laptops. El potente procesador Intel Co [ ... ]

 

 

 

Síguenos en Twitter

 

Síguenos en Facebook