El próximo cambio de paradigma en el centro de datos

El próximo cambio de paradigma en el centro de datos

  • Big Data
  • marzo 16, 2022
  • No Comment
  • 128
  • 7 minutes read


La aceleración de nuestra economía digital ha llevado a una proliferación de datos sin precedentes, pero en términos de la cantidad de conjuntos de datos que se crearán en el futuro cercano, «el mundo no ha visto nada».

Según el Global DataSphere Forecast de IDC, los datos generados en los próximos tres años superarán todos los generados en los últimos 30 años a medida que se aceleren las cargas de trabajo de IA, IoT, empresa y nube que consumen muchos datos. Esto impulsará una demanda sin precedentes en el mercado de centros de datos de rápido crecimiento, donde se espera que el gasto en infraestructura crezca un 6 % este año y continúe creciendo a un ritmo similar hasta 2024.

Con una cuota de mercado estimada del 90 % al 95 % para los procesadores de centros de datos, Intel ha desempeñado un papel descomunal para satisfacer la demanda de los centros de datos, consolidando el papel de la CPU como el chip dominante que maneja toda esta información. Pero la Ley de Moore aparentemente ha llegado a sus límites exteriores, ya que el rendimiento de la CPU no aumenta tan rápido como solía hacerlo y, a medida que se generan más y más datos en los próximos años, la tensión en las operaciones de datos de las organizaciones solo empeorará. es decir, a menos que los centros de datos logren superar las crecientes limitaciones de las CPU mediante la introducción de un procesamiento de análisis de datos acelerado. He aquí por qué el cambio se ha retrasado mucho y qué se necesita para que suceda.

Tendencias subyacentes del mercado

Si bien la CPU sigue siendo el procesador número uno en los centros de datos de todo el mundo, la necesidad de procesar grandes cantidades de datos para aplicaciones de IA ya ha generado la necesidad de otro tipo de procesador, la GPU, en el espacio de los centros de datos. De hecho, el descubrimiento de la notable eficiencia de las GPU en el procesamiento de cargas de trabajo de IA proporcionó el acelerador que Nvidia necesitaba para superar a Intel como una de las empresas de chips más valiosas del mundo.

Sin embargo, la demanda del mercado de una potencia de procesamiento aún mayor y más inteligente sigue creciendo. A medida que las empresas se enfrentan a oleadas sostenidas de aceleración de datos, han surgido sistemas de IA en un chip (SoC) para desafiar a las GPU, una señal clara de que el futuro del mercado de centros de datos se caracterizará por una búsqueda continua de eficiencias de procesamiento cada vez mayores.

Por supuesto, las CPU seguirán desempeñando un papel importante en los centros de datos del futuro, pero su papel en la informática disminuirá a medida que los aceleradores y los procesadores dedicados pasen a primer plano.

Diferentes cargas de trabajo, diferentes soluciones

La búsqueda de una mayor eficiencia de procesamiento surge de la necesidad de dar servicio a nuevos tipos de cargas de trabajo que las CPU y GPU tradicionales simplemente no pueden manejar adecuadamente.

Tome como ejemplo el análisis de big data, que tiene más demanda que nunca, ya que las empresas de todas las industrias buscan aprovechar una variedad de datos de clientes, de mercado, financieros y de otro tipo para tomar decisiones más inteligentes sobre cómo administrar sus presupuestos, llegar a los clientes y desarrollar productos y servicios. servicios, responder a los desafíos logísticos y de la cadena de suministro en tiempo real, y mucho más. El gran volumen de datos que las empresas podrían usar, especialmente en la era de la proliferación de dispositivos IoT, significa que las cargas de trabajo del centro de datos se están volviendo más complejas y requieren más poder de cómputo. Como descubrió un estudio reciente de la Unión Europea, «las aplicaciones de IoT se están convirtiendo en la carga de trabajo dominante» en muchos centros de datos.

En tiempos no solo de big data, sino también datos diversos Además, una talla nunca puede servir para todos. Los procesadores y aceleradores dedicados pueden proporcionar las soluciones personalizadas e hipereficientes necesarias para las cargas de trabajo específicas y altamente complejas que darán forma al futuro del siglo XXI.S t-Economía del siglo: facilitando que las organizaciones extraigan el máximo valor del «nuevo oro» en sus cofres del tesoro de datos.

El cambio de paradigma ya está en marcha. El papel de liderazgo de la CPU en los centros de datos ya no es un hecho y, a medida que las cargas de trabajo de las bases de datos se vuelven más diversas, las fuerzas del mercado apuntarán cada vez más en una dirección clara: el desarrollo de soluciones nuevas, dedicadas y aceleradas.

A partir de aquí, las cargas de trabajo de datos se vuelven cada vez más diversas y complejas. Lo mismo ocurre con los chips que procesarán.

Sobre el Autor

Jonathan Friedmann es director ejecutivo y cofundador de Speedata, cuya primera unidad de procesamiento de análisis (APU) de su tipo está diseñada para acelerar las cargas de trabajo de análisis de big data en todas las industrias. Jonathan es un emprendedor en serie con más de 15 años de experiencia en liderazgo sénior en empresas de semiconductores. Friedmann fue anteriormente director ejecutivo y cofundador de Centipede, que desarrolló propiedad intelectual para procesadores de propósito general. También fue director de operaciones y vicepresidente de I+D en Provigent, una empresa de semiconductores de infraestructura adquirida por Broadcom por más de 300 millones de dólares. Friedmann tiene una licenciatura en ingeniería industrial (magna cum laude), una maestría en ingeniería eléctrica (magna cum laude) y un doctorado, todos de la Universidad de Tel-Aviv.

Regístrese para recibir el boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @InsideBigData1 – https://twitter.com/InsideBigData1



Related post

Hacer del mundo un lugar mejor con datos

Hacer del mundo un lugar mejor con datos

Publicado en Técnicamente | 24 de junio de 2022 3 leer minuto Gran parte de la exageración que rodea a los…
Diversas técnicas de modelado de almacenamiento de datos y su implementación en la plataforma Databricks Lakehouse

Diversas técnicas de modelado de almacenamiento de datos y…

Lakehouse es un nuevo paradigma de plataforma de datos que combina las mejores cualidades de los lagos de datos y los…
¿Qué es un almacén de datos y cómo se implementa en la plataforma Databricks Lakehouse?

¿Qué es un almacén de datos y cómo se…

Hay muchos modelos de datos diferentes que puede usar al diseñar un sistema de análisis, como: B. Modelos de dominio específicos…

Leave a Reply

Tu dirección de correo electrónico no será publicada.