Frente a este panorama, sumar Google Cloud a la operación de OpenAI no solo responde a una lógica de escala, sino a una necesidad crítica para garantizar la continuidad y eficiencia del servicio
ChatGPT usará el servicio de Google Cloud para seguir creciendo

ChatGPT usará el servicio de Google Cloud para seguir creciendo – OpenAI ha confirmado una alianza estratégica con Google Cloud, servicio que ha incorporado como pilar clave para el crecimiento continuo de ChatGPT y otros modelos de inteligencia artificial desarrollados por la compañía.

La decisión, según informa la cadena CNBC, representa un giro relevante dentro de la estrategia operativa de OpenAI y destaca cómo la creciente necesidad de recursos de cómputo puede propiciar colaboraciones entre firmas rivales dentro del competitivo mundo de la inteligencia artificial.

Hasta ahora, OpenAI había sostenido una relación prioritaria con Microsoft, no solo como inversionista, sino especialmente como proveedor de infraestructura a través de Azure. Sin embargo, el vertiginoso aumento de usuarios, junto con la complejidad creciente de los modelos, ha puesto presión sobre la infraestructura disponible, motivando a la empresa a diversificar su base tecnológica para asegurar resiliencia y escalabilidad.

Leer también: Generación Z recela de las nuevas herramientas con IA en apps de citas

Exceso de demanda sobre Azure y saturación del mercado
El lanzamiento y la popularización global de ChatGPT ha generado un incremento exponencial tanto en el número de usuarios como en la cantidad de consultas procesadas simultáneamente. Esta combinación ha tensionado la capacidad de procesamiento de OpenAI, especialmente durante los procesos de entrenamiento e inferencia de modelos avanzados. Hasta el momento, la mayor parte de ese esfuerzo recaía sobre Azure, pero la escasez global de chips de alto rendimiento, como las GPU de Nvidia, ha hecho cada vez más desafiante satisfacer tal volumen de demanda.

Ventajas del acceso a TPUs y optimización del procesamiento
Uno de los componentes centrales de esta alianza es el acceso de OpenAI a las TPU (Tensor Processing Units) de Google. Si bien OpenAI empleará versiones que no representan lo más avanzado del catálogo —pues Google reserva sus chips de mayor capacidad para proyectos propios como Gemini—, este acuerdo marca la primera utilización significativa de procesadores distintos a los de Nvidia por parte de OpenAI.

Las TPUs proporcionan ventajas importantes: reducen los costos por inferencia y mejoran la eficiencia energética, dos elementos cruciales dadas las demandas actuales del sector. El uso de diferentes tipos de hardware disminuye también la dependencia tecnológica, facilitando optimizaciones y una mayor flexibilidad en la operación.

EO// con información de: El Aragüeño