La intersección de la IA y DePIN: el surgimiento de redes de computación distribuida
Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, alcanzando una capitalización de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo se centra en la intersección de ambos campos y explora el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos computacionales. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para computar. Esto a menudo lleva a los desarrolladores a optar por proveedores de nube centralizados, pero debido a que los contratos de hardware a largo plazo no son lo suficientemente flexibles, la eficiencia es baja.
DePIN ofrece una alternativa más flexible y rentable al incentivar la contribución de recursos a través de recompensas en tokens. En el campo de la IA, DePIN externaliza los recursos de GPU de propietarios individuales a centros de datos, proporcionando un suministro unificado para los usuarios que necesitan acceso a hardware. Esto no solo brinda a los desarrolladores acceso personalizado y bajo demanda, sino que también genera ingresos adicionales para los propietarios de GPUs.
En el mercado hay muchas redes de AI DePIN, este artículo explorará el papel, los objetivos y los logros de cada protocolo para comprender las diferencias entre ellos.
Resumen de la red DePIN de IA
Render es un pionero en redes P2P que ofrece capacidad de computación GPU, inicialmente enfocado en la renderización de creación de contenido, y luego se expandió a tareas de computación AI.
Puntos clave:
Fundada por la empresa de gráficos en la nube OTOY
La red GPU es utilizada por grandes compañías de la industria del entretenimiento
Colaborar con Stability AI y otros, integrando modelos de IA con flujos de trabajo de renderizado 3D
Aprobar múltiples clientes de cálculo, integrar más GPUs de la red DePIN
Akash se posiciona como una alternativa "supernube" que soporta almacenamiento, computación GPU y CPU. Utiliza herramientas amigables para desarrolladores, como nodos de computación gestionados por plataformas de contenedores y Kubernetes, para desplegar software de manera fluida en diferentes entornos.
Puntos clave:
Tareas de computación amplias que van desde la computación general hasta el alojamiento en red
AkashML permite que las redes GPU ejecuten más de 15,000 modelos en Hugging Face
Aplicaciones como chatbots del modelo LLM de Mistral AI están en custodia.
Construir plataformas como el metaverso, implementación de IA, etc., utilizando su Supercloud
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, diseñados específicamente para casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otros campos.
Puntos clave:
IO-SDK es compatible con marcos como PyTorch, la arquitectura de múltiples capas se puede expandir dinámicamente
Soporta la creación de 3 tipos diferentes de clústeres, inicio en 2 minutos.
Colaborar e integrar recursos de GPU con Render, Filecoin, etc.
Gensyn ofrece capacidades de GPU enfocadas en computación de aprendizaje automático y aprendizaje profundo. Afirma lograr un mecanismo de validación más eficiente a través de conceptos como la prueba de aprendizaje.
Puntos clave:
El costo por hora de una GPU equivalente a V100 es de aproximadamente 0.40 dólares, lo que representa un gran ahorro.
Se puede ajustar finamente el modelo base preentrenado para completar tareas específicas
Proporcionar un modelo básico descentralizado y compartido globalmente
Aethir está diseñado específicamente para GPU empresariales, centrándose en áreas de alta intensidad computacional como IA, ML y juegos en la nube. Los contenedores en la red actúan como puntos finales virtuales para ejecutar aplicaciones en la nube, logrando una experiencia de baja latencia.
Puntos clave:
Expandir a servicios de teléfonos inteligentes en la nube, lanzar teléfonos inteligentes en la nube descentralizados en colaboración con APhone
Establecer amplias colaboraciones con grandes empresas de Web2 como NVIDIA
Colaborar con proyectos Web3 como CARV, Magic Eden
Phala Network actúa como la capa de ejecución para soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad a través de un entorno de ejecución confiable (TEE).
Puntos clave:
Actuar como un protocolo de coprocesador de cálculo verificable, permitiendo que los agentes de IA accedan a recursos en la cadena.
Los contratos de代理 AI se pueden obtener a través de Redpill de modelos de lenguaje de primer nivel como OpenAI.
El futuro incluirá sistemas de prueba múltiple como zk-proofs, MPC, FHE, entre otros.
En el futuro, se apoyarán GPU TEE como H100 para mejorar la capacidad de cálculo.
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|------------|------------------|---------------------|--------|--------------|---------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque del negocio | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | AI, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena |
| Tipo de tarea de IA | Inferencia | Entrenamiento e inferencia | Entrenamiento e inferencia | Entrenamiento | Entrenamiento | Ejecución |
| Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot|
| Privacidad de datos | Cifrado y hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE |
| Costos de trabajo | 0.5-5%/trabajo | 20% USDC, 4% AKT| 2% USDC, 0.25% reserva | Costos bajos | 20%/sesión | Proporcional al staking|
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé |
| Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE |
| Garantía de calidad | Controversia | - | - | Verificación y denuncia | Comprobar nodo | Prueba remota |
| GPU集群 | No | Sí | Sí | Sí | Sí | No |
importancia
Disponibilidad de clústeres y computación en paralelo
El marco de computación distribuida implementa un clúster de GPU, mejorando la eficiencia de entrenamiento y la escalabilidad. Entrenar modelos de IA complejos requiere una potente capacidad de cálculo, que a menudo se basa en la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros, tardando de 3 a 4 meses, utilizando aproximadamente 25,000 GPU Nvidia A100.
La mayoría de los proyectos ahora han integrado clústeres para lograr el cálculo paralelo. io.net ha colaborado con otros proyectos y ha desplegado más de 3,800 clústeres en el Q1. Render, aunque no soporta clústeres, descompone un solo fotograma para ser procesado simultáneamente en múltiples nodos. Phala soporta la agrupación de trabajadores de CPU.
El marco de clúster es muy importante para la red de flujos de trabajo de IA, pero la cantidad y el tipo de GPU de clúster que satisfacen las necesidades de los desarrolladores es otro problema.
Privacidad de datos
El desarrollo de modelos de IA requiere grandes conjuntos de datos, que pueden involucrar información sensible. Samsung desactivó ChatGPT por preocupaciones sobre la privacidad, y la filtración de 38 TB de datos de Microsoft resalta aún más la importancia de la seguridad en la IA. Diversos métodos de privacidad de datos son cruciales para devolver el control a los proveedores de datos.
La mayoría de los proyectos utilizan algún tipo de cifrado de datos para proteger la privacidad. Render utiliza cifrado y hash, io.net y Gensyn emplean cifrado de datos, y Akash utiliza autenticación mTLS.
io.net se ha asociado con Mind Network para lanzar la encriptación totalmente homomórfica (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos. Esto protege la privacidad mejor que las tecnologías de cifrado existentes.
Phala Network introduce un entorno de ejecución confiable ( TEE ), para prevenir el acceso externo o la modificación de datos. También combina zk-proofs para la integración de RiscZero zkVM.
Prueba de cálculo completado y verificación de calidad
Debido a la amplia gama de servicios, la calidad final puede no cumplir con los estándares del usuario. La finalización del certificado indica que la GPU se utilizó para el servicio requerido, y la verificación de calidad es beneficiosa para el usuario.
Gensyn y Aethir completan la generación de pruebas, io.net prueba que el rendimiento de la GPU se utiliza sin problemas. Gensyn y Aethir realizan controles de calidad. Gensyn vuelve a ejecutar parte de las pruebas usando validadores, el denunciante revisa nuevamente. Aethir utiliza puntos de control para evaluar la calidad del servicio, sancionando los servicios que no cumplen con los estándares. Render sugiere un proceso de resolución de disputas, el comité de revisión puede reducir los nodos problemáticos. Phala genera pruebas TEE, asegurando que los agentes de IA realicen operaciones en la cadena.
El entrenamiento de modelos de IA requiere GPU de primera clase como la Nvidia A100 y H100. El rendimiento de inferencia del H100 es 4 veces superior al del A100, convirtiéndose en la opción preferida, especialmente para grandes empresas.
El mercado de GPU descentralizado debe competir con Web2, no solo en precios bajos, sino también en satisfacer las necesidades reales. En 2023, Nvidia entregó 500,000 H100 a grandes empresas tecnológicas, lo que resulta en costos de hardware equivalentes muy altos. Es importante considerar la cantidad de hardware que estos proyectos pueden introducir a bajo costo.
Cada proyecto ofrece diferentes capacidades de cálculo. Akash tiene solo más de 150 H100 y A100, mientras que io.net y Aethir tienen más de 2000 cada uno. Los LLM preentrenados generalmente requieren de 248 a más de 2000 clústeres de GPU, siendo los dos últimos proyectos más adecuados para cálculos de modelos grandes.
Actualmente, el costo de los servicios de GPU descentralizados es mucho más bajo que el de los servicios centralizados. Gensyn y Aethir afirman que el hardware de nivel A100 cuesta menos de 1 dólar por hora, pero aún se necesita tiempo para verificarlo.
Aunque los clústeres de GPU conectados a la red tienen muchas GPU y bajo costo, su memoria es limitada en comparación con las GPU conectadas por NVLink. NVLink admite la comunicación directa entre GPU, lo que es adecuado para LLM con muchos parámetros y grandes conjuntos de datos.
A pesar de esto, las redes GPU descentralizadas aún ofrecen una potente capacidad de cálculo y escalabilidad para las demandas de carga de trabajo dinámica o para usuarios que requieren flexibilidad, creando oportunidades para construir más casos de uso de IA.
proporciona GPU/CPU de nivel de consumo
La CPU también es muy importante en el entrenamiento de modelos de IA, utilizada para el preprocesamiento de datos hasta la gestión de memoria. Las GPU de consumo se pueden utilizar para afinar modelos preentrenados o para entrenamientos a pequeña escala.
Teniendo en cuenta que más del 85% de los consumidores tienen GPU inactivas, proyectos como Render, Akash e io.net también sirven a este mercado. Esto les permite centrarse en cálculos intensivos a gran escala, renderizado de pequeña escala general o una mezcla de ambos.
Conclusión
El campo DePIN de IA aún es relativamente nuevo y enfrenta desafíos. Por ejemplo, io.net fue acusado de falsificar la cantidad de GPU, y luego se resolvió a través de la prueba de trabajo.
A pesar de esto, la cantidad de tareas y hardware ejecutados en estas redes ha aumentado significativamente, lo que resalta el crecimiento de la demanda de alternativas a los proveedores de nube Web2. Al mismo tiempo, el aumento de proveedores de hardware muestra que la oferta no se ha aprovechado adecuadamente antes de la demanda. Esto demuestra la adecuación del mercado de productos de la red DePIN de IA, que aborda eficazmente los desafíos de demanda y oferta.
Mirando hacia el futuro, se espera que la IA se convierta en un mercado de billones de dólares en expansión, y estas redes de GPU descentralizadas jugarán un papel clave en proporcionar a los desarrolladores soluciones de computación económicas y eficientes. Al cerrar continuamente la brecha entre la demanda y la oferta, estas redes contribuirán significativamente al futuro paisaje de la IA y la infraestructura de computación.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
4
Compartir
Comentar
0/400
DecentralizeMe
· 07-24 18:34
¿Qué depin es mejor que hacer un proyecto poi?
Ver originalesResponder0
ContractCollector
· 07-24 18:33
Descentralización es el camino a seguir.
Ver originalesResponder0
CoffeeNFTs
· 07-24 18:10
Delante está Amazon, detrás está GPT. ¿Quién entiende este gran juego de GPU?
Red DePIN de IA: la computación distribuida con GPU impulsa el desarrollo de IA
La intersección de la IA y DePIN: el surgimiento de redes de computación distribuida
Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, alcanzando una capitalización de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo se centra en la intersección de ambos campos y explora el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos computacionales. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para computar. Esto a menudo lleva a los desarrolladores a optar por proveedores de nube centralizados, pero debido a que los contratos de hardware a largo plazo no son lo suficientemente flexibles, la eficiencia es baja.
DePIN ofrece una alternativa más flexible y rentable al incentivar la contribución de recursos a través de recompensas en tokens. En el campo de la IA, DePIN externaliza los recursos de GPU de propietarios individuales a centros de datos, proporcionando un suministro unificado para los usuarios que necesitan acceso a hardware. Esto no solo brinda a los desarrolladores acceso personalizado y bajo demanda, sino que también genera ingresos adicionales para los propietarios de GPUs.
En el mercado hay muchas redes de AI DePIN, este artículo explorará el papel, los objetivos y los logros de cada protocolo para comprender las diferencias entre ellos.
Resumen de la red DePIN de IA
Render es un pionero en redes P2P que ofrece capacidad de computación GPU, inicialmente enfocado en la renderización de creación de contenido, y luego se expandió a tareas de computación AI.
Puntos clave:
Akash se posiciona como una alternativa "supernube" que soporta almacenamiento, computación GPU y CPU. Utiliza herramientas amigables para desarrolladores, como nodos de computación gestionados por plataformas de contenedores y Kubernetes, para desplegar software de manera fluida en diferentes entornos.
Puntos clave:
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, diseñados específicamente para casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otros campos.
Puntos clave:
Gensyn ofrece capacidades de GPU enfocadas en computación de aprendizaje automático y aprendizaje profundo. Afirma lograr un mecanismo de validación más eficiente a través de conceptos como la prueba de aprendizaje.
Puntos clave:
Aethir está diseñado específicamente para GPU empresariales, centrándose en áreas de alta intensidad computacional como IA, ML y juegos en la nube. Los contenedores en la red actúan como puntos finales virtuales para ejecutar aplicaciones en la nube, logrando una experiencia de baja latencia.
Puntos clave:
Phala Network actúa como la capa de ejecución para soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad a través de un entorno de ejecución confiable (TEE).
Puntos clave:
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque del negocio | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | AI, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena | | Tipo de tarea de IA | Inferencia | Entrenamiento e inferencia | Entrenamiento e inferencia | Entrenamiento | Entrenamiento | Ejecución | | Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot| | Privacidad de datos | Cifrado y hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE | | Costos de trabajo | 0.5-5%/trabajo | 20% USDC, 4% AKT| 2% USDC, 0.25% reserva | Costos bajos | 20%/sesión | Proporcional al staking| | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE | | Garantía de calidad | Controversia | - | - | Verificación y denuncia | Comprobar nodo | Prueba remota | | GPU集群 | No | Sí | Sí | Sí | Sí | No |
importancia
Disponibilidad de clústeres y computación en paralelo
El marco de computación distribuida implementa un clúster de GPU, mejorando la eficiencia de entrenamiento y la escalabilidad. Entrenar modelos de IA complejos requiere una potente capacidad de cálculo, que a menudo se basa en la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros, tardando de 3 a 4 meses, utilizando aproximadamente 25,000 GPU Nvidia A100.
La mayoría de los proyectos ahora han integrado clústeres para lograr el cálculo paralelo. io.net ha colaborado con otros proyectos y ha desplegado más de 3,800 clústeres en el Q1. Render, aunque no soporta clústeres, descompone un solo fotograma para ser procesado simultáneamente en múltiples nodos. Phala soporta la agrupación de trabajadores de CPU.
El marco de clúster es muy importante para la red de flujos de trabajo de IA, pero la cantidad y el tipo de GPU de clúster que satisfacen las necesidades de los desarrolladores es otro problema.
Privacidad de datos
El desarrollo de modelos de IA requiere grandes conjuntos de datos, que pueden involucrar información sensible. Samsung desactivó ChatGPT por preocupaciones sobre la privacidad, y la filtración de 38 TB de datos de Microsoft resalta aún más la importancia de la seguridad en la IA. Diversos métodos de privacidad de datos son cruciales para devolver el control a los proveedores de datos.
La mayoría de los proyectos utilizan algún tipo de cifrado de datos para proteger la privacidad. Render utiliza cifrado y hash, io.net y Gensyn emplean cifrado de datos, y Akash utiliza autenticación mTLS.
io.net se ha asociado con Mind Network para lanzar la encriptación totalmente homomórfica (FHE), que permite procesar datos cifrados sin necesidad de descifrarlos. Esto protege la privacidad mejor que las tecnologías de cifrado existentes.
Phala Network introduce un entorno de ejecución confiable ( TEE ), para prevenir el acceso externo o la modificación de datos. También combina zk-proofs para la integración de RiscZero zkVM.
Prueba de cálculo completado y verificación de calidad
Debido a la amplia gama de servicios, la calidad final puede no cumplir con los estándares del usuario. La finalización del certificado indica que la GPU se utilizó para el servicio requerido, y la verificación de calidad es beneficiosa para el usuario.
Gensyn y Aethir completan la generación de pruebas, io.net prueba que el rendimiento de la GPU se utiliza sin problemas. Gensyn y Aethir realizan controles de calidad. Gensyn vuelve a ejecutar parte de las pruebas usando validadores, el denunciante revisa nuevamente. Aethir utiliza puntos de control para evaluar la calidad del servicio, sancionando los servicios que no cumplen con los estándares. Render sugiere un proceso de resolución de disputas, el comité de revisión puede reducir los nodos problemáticos. Phala genera pruebas TEE, asegurando que los agentes de IA realicen operaciones en la cadena.
Estadísticas de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad de H100/A100| - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Requisitos de GPU de alto rendimiento
El entrenamiento de modelos de IA requiere GPU de primera clase como la Nvidia A100 y H100. El rendimiento de inferencia del H100 es 4 veces superior al del A100, convirtiéndose en la opción preferida, especialmente para grandes empresas.
El mercado de GPU descentralizado debe competir con Web2, no solo en precios bajos, sino también en satisfacer las necesidades reales. En 2023, Nvidia entregó 500,000 H100 a grandes empresas tecnológicas, lo que resulta en costos de hardware equivalentes muy altos. Es importante considerar la cantidad de hardware que estos proyectos pueden introducir a bajo costo.
Cada proyecto ofrece diferentes capacidades de cálculo. Akash tiene solo más de 150 H100 y A100, mientras que io.net y Aethir tienen más de 2000 cada uno. Los LLM preentrenados generalmente requieren de 248 a más de 2000 clústeres de GPU, siendo los dos últimos proyectos más adecuados para cálculos de modelos grandes.
Actualmente, el costo de los servicios de GPU descentralizados es mucho más bajo que el de los servicios centralizados. Gensyn y Aethir afirman que el hardware de nivel A100 cuesta menos de 1 dólar por hora, pero aún se necesita tiempo para verificarlo.
Aunque los clústeres de GPU conectados a la red tienen muchas GPU y bajo costo, su memoria es limitada en comparación con las GPU conectadas por NVLink. NVLink admite la comunicación directa entre GPU, lo que es adecuado para LLM con muchos parámetros y grandes conjuntos de datos.
A pesar de esto, las redes GPU descentralizadas aún ofrecen una potente capacidad de cálculo y escalabilidad para las demandas de carga de trabajo dinámica o para usuarios que requieren flexibilidad, creando oportunidades para construir más casos de uso de IA.
proporciona GPU/CPU de nivel de consumo
La CPU también es muy importante en el entrenamiento de modelos de IA, utilizada para el preprocesamiento de datos hasta la gestión de memoria. Las GPU de consumo se pueden utilizar para afinar modelos preentrenados o para entrenamientos a pequeña escala.
Teniendo en cuenta que más del 85% de los consumidores tienen GPU inactivas, proyectos como Render, Akash e io.net también sirven a este mercado. Esto les permite centrarse en cálculos intensivos a gran escala, renderizado de pequeña escala general o una mezcla de ambos.
Conclusión
El campo DePIN de IA aún es relativamente nuevo y enfrenta desafíos. Por ejemplo, io.net fue acusado de falsificar la cantidad de GPU, y luego se resolvió a través de la prueba de trabajo.
A pesar de esto, la cantidad de tareas y hardware ejecutados en estas redes ha aumentado significativamente, lo que resalta el crecimiento de la demanda de alternativas a los proveedores de nube Web2. Al mismo tiempo, el aumento de proveedores de hardware muestra que la oferta no se ha aprovechado adecuadamente antes de la demanda. Esto demuestra la adecuación del mercado de productos de la red DePIN de IA, que aborda eficazmente los desafíos de demanda y oferta.
Mirando hacia el futuro, se espera que la IA se convierta en un mercado de billones de dólares en expansión, y estas redes de GPU descentralizadas jugarán un papel clave en proporcionar a los desarrolladores soluciones de computación económicas y eficientes. Al cerrar continuamente la brecha entre la demanda y la oferta, estas redes contribuirán significativamente al futuro paisaje de la IA y la infraestructura de computación.