En la conferencia de la industria de almacenamiento de datos de 2025, Huawei presentó una visión que puede redefinir lo que tradicionalmente se entiende por almacenamiento. Zhou Yuefeng, presidente de la línea de producto de almacenamiento de datos, adelantó que la compañía podría lanzar a principios del próximo año un producto físico denominado AI Data Platform y sugirió que su enfoque modificará la concepción clásica del almacenamiento. Señaló que hasta ahora el almacenamiento se centraba en la conservación fiable de los datos y en ofrecer soporte a las aplicaciones superiores; en la era de la inteligencia artificial, el almacenamiento debe elevarse a la categoría de plataforma de datos, integrando capacidades que van más allá de leer y escribir información.
Zhou puso el acento en que los datos ya no bastan con ser preservados: deben facilitar directamente los flujos de entrenamiento y de inferencia de modelos, así como los procesos de representación y recuperación del conocimiento. En esa línea, el supuesto AI Data Platform se concibe más como un producto a nivel de sistema que como un dispositivo de bloques o ficheros, combinando almacenamiento físico, orquestación de potencia de cálculo, gestión de conocimiento multimodal y servicios de búsqueda o recuperación. Esa reconfiguración de límites funcionales alimenta una tendencia industrial consistente: el almacenamiento pasa a ser servicio inteligente que aporta diferenciación operativa y reduce latencias en pipelines de IA complejos.
Huawei
Además, Huawei anunció la intención de publicar el 21 de noviembre una tecnología que la compañía califica de ruptura en gestión de recursos. Según lo expuesto, se logra mediante innovación software una gestión unificada y uso óptimo de recursos de diferentes proveedores —GPU de NVIDIA, NPU de Ascend y otros aceleradores— abstraendo las diferencias de hardware para entrenamiento e inferencia de IA. Huawei asegura que esta aproximación, que sigue la lógica de mejorar el hardware con software, podría elevar la utilización efectiva de GPU y NPU desde el promedio industrial del 30–40% hasta aproximadamente el 70%, liberando así potencia de cálculo ya instalada.
La conjunción de una capa superior que trata los datos como servicio y una inferior que optimiza la entrega de cómputo sugiere sinergias claras en producto y operación: integrar una plataforma de datos inteligente con un motor de orquestación heterogénea puede reducir costes de operación y mejorar la eficiencia de los despliegues de IA empresariales. Lo que queda por ver son los detalles técnicos y comerciales críticos: interoperabilidad entre aceleradores heterogéneos, estrategias de seguridad y gobernanza de datos, coherencia de bases de conocimiento multimodales y compatibilidad del ecosistema para facilitar adopción y migración.
- OnePlus Pad Go 2 revelado con potente MediaTek Dimensity 7300 y pantalla LCD 2.8K de 12 pulgadas - 5 diciembre, 2025
- Antigravity revoluciona el sector con la primera dron panorámico de YingShi, Liu Jingkang confirma retos superados y satisfacción - 5 diciembre, 2025
- Xiaomi 17 Ultra filtrado en una foto real aunque sin mostrar la apariencia real - 5 diciembre, 2025