IA y cadena de bloques: un análisis integral desde la cadena de suministro hasta la tokenómica

La fusión de la IA y la cadena de bloques: de cero a la cima

El reciente auge de la industria de la inteligencia artificial se considera la cuarta revolución industrial. La aparición de grandes modelos de lenguaje ha mejorado significativamente la eficiencia en diversas industrias, estimándose un aumento de aproximadamente el 20% en la eficiencia laboral general de Estados Unidos. Al mismo tiempo, la capacidad de generalización de los grandes modelos se considera un nuevo paradigma de diseño de software; en comparación con el diseño de código preciso del pasado, el software actual utiliza más marcos de grandes modelos generalizados, lo que permite soportar una gama más amplia de modalidades de entrada y salida. La tecnología de aprendizaje profundo ha traído, de hecho, una nueva ola de prosperidad a la industria de la IA, y esta oleada también se ha extendido a la industria de las criptomonedas.

Este artículo explorará en detalle la trayectoria de desarrollo de la industria de la IA, la clasificación de tecnologías y el profundo impacto del aprendizaje profundo en la industria. Profundizaremos en el análisis de la cadena de industria del aprendizaje profundo, incluyendo GPU, computación en la nube, fuentes de datos, dispositivos de borde, etc., y analizaremos su estado actual y tendencias. Además, exploraremos esencialmente la relación entre las criptomonedas y la industria de la IA, organizando el patrón de la cadena de industria de IA relacionada con la criptografía.

Nuevo conocimiento丨AI x Crypto: de cero a la cima

Desarrollo de la industria de la IA

La industria de la IA comenzó en la década de 1950. Para lograr la visión de la inteligencia artificial, el ámbito académico y la industria han desarrollado diversas rutas de implementación en diferentes contextos históricos.

La tecnología moderna de inteligencia artificial utiliza principalmente el término "aprendizaje automático", cuya idea central es permitir que las máquinas mejoren el rendimiento del sistema a través de la iteración de datos. Los pasos principales incluyen la entrada de datos en el algoritmo, el entrenamiento del modelo, la prueba del modelo implementado y, finalmente, su uso para tareas de predicción automatizadas.

El aprendizaje automático actualmente tiene tres principales corrientes: el conexionismo, el simbolismo y el conductismo, que imitan respectivamente el sistema nervioso, el pensamiento y el comportamiento humano. Actualmente, el conexionismo representado por redes neuronales domina, también conocido como aprendizaje profundo. La arquitectura de redes neuronales incluye una capa de entrada, una capa de salida y múltiples capas ocultas; cuando el número de capas y la cantidad de parámetros de neuronas son suficientes, se pueden ajustar tareas generales complejas.

La tecnología de aprendizaje profundo basada en redes neuronales también ha pasado por múltiples iteraciones, desde las primeras redes neuronales, hasta redes neuronales de retroalimentación, RNN, CNN, GAN, y finalmente evolucionando hacia modelos grandes modernos como los que utilizan la tecnología Transformer, como GPT. La tecnología Transformer es una dirección de evolución de las redes neuronales, que añade un transformador, para codificar los datos de diferentes modalidades ( como audio, video, imágenes, etc. ) en representaciones numéricas correspondientes, que luego se introducen en la red neuronal, logrando así la capacidad de procesamiento multimodal.

Nuevo conocimiento丨AI x Crypto:De cero a la cima

El desarrollo de la IA ha pasado por tres oleadas tecnológicas:

  1. Década de 1960: el desarrollo de la tecnología simbolista resolvió los problemas del procesamiento del lenguaje natural general y del diálogo hombre-máquina. En esa misma época nacieron los sistemas expertos.

  2. Década de 1990: La propuesta de redes bayesianas y la robótica basada en comportamientos marcaron el nacimiento del conductismo. En 1997, Deep Blue de IBM venció al campeón de ajedrez, lo que se considera un hito en la IA.

  3. Desde 2006 hasta ahora: se propuso el concepto de aprendizaje profundo, los algoritmos basados en redes neuronales artificiales han evolucionado gradualmente, desde RNN, GAN hasta Transformer y Stable Diffusion, este es el auge del conexionismo.

En los últimos años, algunos eventos emblemáticos en el campo de la IA incluyen:

  • En 2015, se publicaron algoritmos de aprendizaje profundo en la revista "Nature", lo que generó una gran repercusión en el ámbito académico e industrial.
  • En 2016, AlphaGo venció al campeón mundial de Go, Lee Sedol.
  • En 2017, Google publicó el artículo del algoritmo Transformer y comenzaron a aparecer los modelos de lenguaje a gran escala.
  • Entre 2018 y 2020, OpenAI lanzó la serie de modelos GPT, aumentando constantemente la escala de parámetros.
  • En enero de 2023, se lanzó ChatGPT basado en GPT-4, alcanzando 100 millones de usuarios en marzo, convirtiéndose en la aplicación que más rápido ha llegado a 100 millones de usuarios en la historia.

Nuevo conocimiento丨AI x Crypto: De cero a la cima

Cadena de bloques de aprendizaje profundo

Los modelos de lenguaje a gran escala actuales utilizan principalmente métodos de aprendizaje profundo basados en redes neuronales. Los grandes modelos representados por GPT han desencadenado una nueva ola de entusiasmo por la IA, atrayendo a numerosos jugadores a esta carrera. La demanda del mercado de datos y potencia de cálculo ha crecido rápidamente, por lo que exploraremos la composición de la cadena industrial de los algoritmos de aprendizaje profundo, así como el estado actual de la oferta y la demanda y su desarrollo futuro.

El entrenamiento de modelos de lenguaje grandes como GPT(LLMs) se divide principalmente en tres pasos:

  1. Preentrenamiento: introducir una gran cantidad de datos para encontrar los mejores parámetros de las neuronas, este proceso consume la mayor cantidad de potencia de cálculo.

  2. Ajuste fino: utilizar una pequeña cantidad de datos, pero de alta calidad, para entrenar y mejorar la calidad de la salida del modelo.

  3. Aprendizaje por refuerzo: establecer un "modelo de recompensa" para clasificar los resultados de salida, utilizado para iterar los parámetros del gran modelo.

Los tres factores clave que afectan el rendimiento de los grandes modelos son: la cantidad de parámetros, la cantidad y calidad de los datos, y la potencia de cálculo. Supongamos que la cantidad de parámetros es p, la cantidad de datos es n( calculada en términos de la cantidad de Token ), entonces se puede estimar la cantidad de cálculo necesaria a través de reglas empíricas.

La potencia de cálculo generalmente se mide en Flops, que representa una operación de punto flotante. Según la regla empírica, el preentrenamiento de un gran modelo requiere aproximadamente 6np Flops. Mientras que el proceso de inferencia donde se espera que el modelo produzca una salida para los datos de entrada (, requiere aproximadamente 2np Flops.

En las primeras etapas, se utilizaban principalmente chips de CPU para el entrenamiento, y luego se fue avanzando gradualmente hacia GPU, como los chips A100 y H100 de Nvidia. Las GPU realizan cálculos de punto flotante a través de módulos Tensor Core, y los datos de Flops en precisión FP16/FP32 son un indicador importante de la capacidad de cálculo del chip.

Tomando como ejemplo GPT-3, tiene 175 mil millones de parámetros y una cantidad de datos de 180 mil millones de Tokens. Una preentrenamiento requiere aproximadamente 3.1510^22 Flops, es decir, 3.1510^10 TFLOPS. Preentrenar una vez GPT-3 utilizando un chip NVIDIA H100 SXM requiere alrededor de 584 días.

Se puede ver que entrenar un modelo grande requiere una gran cantidad de cálculos, lo que necesita múltiples chips avanzados trabajando juntos. La cantidad de parámetros y datos de GPT-4 es diez veces mayor que la de GPT-3, y puede requerir más de 100 veces la potencia de cálculo de chips.

En el entrenamiento de grandes modelos, el almacenamiento de datos también enfrenta desafíos. Los datos de GPT-3 ocupan aproximadamente 570GB, y los parámetros ocupan aproximadamente 700GB. La memoria de la GPU generalmente es más pequeña, como el A100 que tiene 80GB, y no puede contener todos los datos, por lo que es necesario considerar el ancho de banda del chip. En el entrenamiento con múltiples GPUs, también se involucra la tasa de transferencia de datos entre chips. A veces, el cuello de botella que limita la velocidad de entrenamiento no es la capacidad de cálculo, sino la velocidad de transferencia de datos.

La cadena industrial de aprendizaje profundo incluye principalmente los siguientes enlaces:

) 1. Proveedor de hardware GPU

NVIDIA ocupa una posición de liderazgo absoluto en el campo de los chips GPU de IA. La academia utiliza principalmente GPUs de consumo ( como la serie RTX ), mientras que la industria utiliza principalmente chips comerciales como el H100 y el A100. Google también tiene sus propios chips TPU, pero se utilizan principalmente para los servicios de Google Cloud.

Desde su lanzamiento en 2023, el chip H100 de Nvidia ha recibido una gran cantidad de pedidos, superando la demanda. A finales de 2023, la cantidad de pedidos del H100 superó las 500,000 unidades. Para liberarse de la dependencia de Nvidia, Google lideró la creación de la Alianza CUDA, con la esperanza de desarrollar conjuntamente GPUs.

Nuevos conocimientos丨IA x Cripto: de cero a la cima

( 2. Proveedor de servicios en la nube

Los proveedores de servicios en la nube compran grandes cantidades de GPU para construir clústeres de computación de alto rendimiento, ofreciendo potencia de cálculo flexible y soluciones de entrenamiento alojadas a empresas de IA con recursos limitados. Principalmente se dividen en tres categorías:

  • Proveedores de nube tradicionales: AWS, Google Cloud, Azure, etc.
  • Plataforma de computación en la nube AI vertical: CoreWeave, Lambda, etc.
  • Proveedores de inferencia como servicio: Together.ai, Fireworks.ai, etc.

) 3. Proveedores de datos de entrenamiento

El entrenamiento de grandes modelos requiere una gran cantidad de datos. Algunas empresas se especializan en proporcionar datos de entrenamiento para diversas industrias, como conjuntos de datos especializados en finanzas, salud, química, entre otros.

4. Proveedor de bases de datos

El entrenamiento de IA requiere almacenamiento y procesamiento eficientes de grandes volúmenes de datos no estructurados, por lo que surgió la "base de datos vectorial". Los principales actores incluyen Chroma, Zilliz, Pinecone, entre otros.

( 5. Dispositivo de borde

Los clústeres de GPU generan una gran cantidad de energía térmica, y se necesita un sistema de refrigeración para garantizar un funcionamiento estable. Actualmente, se utiliza principalmente refrigeración por aire, pero los sistemas de refrigeración por líquido están ganando la preferencia del capital. En cuanto al suministro de energía, algunas empresas tecnológicas han comenzado a invertir en energía geotérmica, energía de hidrógeno, energía nuclear y otras energías limpias.

) 6. Aplicaciones de IA

El desarrollo actual de las aplicaciones de IA es similar a la industria de la Cadena de bloques, con infraestructura abarrotada pero un desarrollo de aplicaciones relativamente rezagado. Las diez principales aplicaciones de IA con más usuarios activos al mes son principalmente productos de búsqueda, y hay pocas aplicaciones de otros tipos como redes sociales. La tasa de retención de usuarios de las aplicaciones de IA también es generalmente inferior a la de las aplicaciones de Internet tradicionales.

En general, la cadena de industrias de aprendizaje profundo está en rápido desarrollo, pero también enfrenta numerosos desafíos. La demanda de poder de cálculo sigue creciendo, el consumo de datos y energía es enorme, y los escenarios de aplicación necesitan ser ampliados. En el futuro, cada eslabón de la cadena de industrias continuará optimizándose y actualizándose para apoyar el entrenamiento y la aplicación de modelos de IA más grandes y eficientes.

Nuevo conocimiento丨AI x Crypto: de cero a la cima

La relación entre las criptomonedas y la IA

La esencia de la tecnología de la cadena de bloques es la descentralización y la desconfianza. Desde Bitcoin como un sistema de efectivo electrónico punto a punto, hasta la plataforma de contratos inteligentes de Ethereum, la cadena de bloques es esencialmente una red de valor, donde cada transacción es un intercambio de valor basado en el valor de los tokens subyacentes.

En el internet tradicional, el valor se convierte en precio de acción y capitalización de mercado a través de indicadores como el P/E. En la red de Cadena de bloques, el token nativo se manifiesta como una representación multidimensional del valor, que no solo puede generar ingresos por staking, sino que también puede actuar como medio de intercambio de valor, medio de almacenamiento de valor y como bienes de consumo para actividades en la red.

La importancia de la economía de los tokens radica en que puede otorgar valor a cualquier función o idea dentro de la red. Los tokens permiten la revalorización de los diferentes eslabones de la cadena de la industria de la IA, incentivando a más personas a profundizar en los nichos del sector de la IA. Al mismo tiempo, el efecto de sinergia de los tokens aumentará el valor de la infraestructura, formando un patrón de "protocolo grueso, aplicación delgada".

La característica inmutable y sin necesidad de confianza de la tecnología de Cadena de bloques también puede aportar valor real a la industria de la IA:

  • Implementar entrenamiento y razonamiento de modelos bajo la protección de la privacidad de los datos
  • Distribuir a través de una red global y aprovechar la potencia de cálculo de GPU ociosa
  • Proporcionar un mecanismo confiable de descubrimiento y intercambio de valor para cada etapa de la cadena de bloques de IA.

En resumen, la economía de tokens puede promover la reestructuración y el descubrimiento del valor en la industria de la IA, los libros de contabilidad descentralizados pueden resolver problemas de confianza y reactivar el flujo de valor a nivel global. Esta combinación traerá nuevos impulsores de desarrollo y oportunidades para la industria de la IA.

![Nuevos conocimientos丨AI x Crypto: De cero a la cima]###https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp###

Visión general del proyecto de la cadena de la industria de AI en la industria de criptomonedas

suministro de GPU

Los principales proyectos de potencia de cálculo en la nube de GPU de la cadena de bloques incluyen Render, Golem, entre otros. Render, como un proyecto más maduro, se centra principalmente en tareas tradicionales como la renderización de video, y estrictamente hablando, no se considera parte del sector de IA. Sin embargo, el mercado de la nube de GPU no solo puede dirigirse al entrenamiento e inferencia de modelos de IA, sino que también puede aplicarse a la renderización tradicional, lo que reduce el riesgo de dependencia de un solo mercado.

Según las previsiones de la industria, la demanda de potencia de cálculo de GPU en 2024 será de aproximadamente 75 mil millones de dólares, alcanzando los 773 mil millones de dólares para 2032, con una tasa de crecimiento anual compuesta del 33.86%. Con la aceleración de la iteración de GPU, la demanda de compartir la potencia de cálculo de GPU aumentará significativamente, ya que se generará una gran cantidad de recursos de GPU inactivos que no son de última generación.

![Nuevos conocimientos丨AI x Crypto: De cero a la cima]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp###

( ancho de banda de hardware

El ancho de banda suele ser un factor clave que afecta el rendimiento de la computación en la nube, especialmente para las redes de GPU compartidas descentralizadas. Algunos proyectos como Meson Network intentan resolver este problema compartiendo ancho de banda, pero los resultados reales son limitados, ya que la latencia causada por la ubicación geográfica sigue siendo difícil de evitar.

) datos

Los proveedores de datos de IA incluyen EpiK Protocol, Synesis One, Masa, entre otros. En comparación con las empresas de datos tradicionales de Web2, los proyectos de la cadena de bloques tienen ventajas en la recolección de datos, pudiendo ofrecer incentivos por la contribución de datos personales. Combinando tecnologías de computación de privacidad como las pruebas de conocimiento cero, se espera lograr un intercambio de datos más amplio.

( ZKML

Para lograr el entrenamiento y la inferencia de modelos bajo la protección de la privacidad de los datos, algunos proyectos adoptan soluciones de prueba de conocimiento cero. Proyectos típicos incluyen Axiom, Risc Zero, entre otros, que pueden proporcionar pruebas ZK para el cálculo y los datos fuera de la cadena. Este tipo de proyectos ZK generales tiene fronteras de aplicación más amplias y resulta más atractivo para los inversores.

)

GPT3.03%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
MetaNeighborvip
· hace19h
Comercio de criptomonedas imprescindible AI, todo depende de AI
Ver originalesResponder0
ILCollectorvip
· hace19h
¿Quién dice que en un bull run no se toma a la gente por tonta? Reducir pérdidas también es una forma de subir.
Ver originalesResponder0
ColdWalletGuardianvip
· hace19h
¡El gran hermano GPU va a To the moon de nuevo~
Ver originalesResponder0
HodlOrRegretvip
· hace20h
Está bien, está bien. Otra vez hablando de IA. Alcista es alcista, pero los Rig de Minera están en exceso de oferta.
Ver originalesResponder0
MEVHunterZhangvip
· hace20h
Una vez más, los tontos son engañados por el BTC.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)