PcComponentes
Mi Cuenta

¿Qué es la IA generativa? Conoce el "boom" que ha traído OpenAI

Redes
Ángel Aller - Última actualización: 4 de junio de 2024

Toda Big Tech sabe lo que es una IA generativa, pero, ¿tú sabes lo qué es? Conoce la respuesta en este post.

ia generativa qué es

Qué es la IA generativa

La IA generativa es el uso de una inteligencia artificial para generar contenido: texto, imágenes, música, vídeos, canciones, voces, etc. Para ponerla en funcionamiento se necesita un modelo de lenguaje, los míticos LLM que tan de moda se han puesto.

El ejemplo más rápido que os viene a la cabeza es ChatGPT o Google Bard, pero es necesario conocer qué hay detrás de estos chatbots.

Los modelos de IA sirven para abordar tareas que pueden estar preconfiguradas: componer, resumir, resolver, etc. De ahí que se diga que se “entrenan” a los modelos para que puedan responder adecuadamente las peticiones.

“Entrenar” es como “enseñar”, y si vamos a usar una IA generativa para resolver un problema matemático, tendremos que entrenarle para sumar, restar, multiplicar, dividir, hacer logaritmos, raíces cuadradas, Gauss, aritmética; todo un sinfín.

¿Qué es un modelo IA?

ia generativa

Un modelo IA es un programa entrenado a base de datos con el fin de interpretar peticiones y resolverlos. Aquí entran los famosos algoritmos, que pueden ser la razón de una gran experiencia o todo lo contrario. La idea es que el modelo IA no necesite la intervención del humano, de ahí que se necesiten automatizar las tomas de decisiones: bienvenidos al Machine Learning.

Al final, tú programas un modelo IA para un fin determinado, que, relacionándolo con la IA generativa, puede ser responder peticiones de muchos tipos:

  • Crear una tabla comparativa de precios.
  • Resumir un libro.
  • Crear una imagen a partir de un prompt o instrucciones.
  • Componer una melodía.
  • Grabar una voz a partir de texto.
  • Etc.

Un modelo IA tradicional está compuesto de un conjunto de declaraciones “si”, “entonces”, “si no”. A estos modelos se les puede llamar de muchas maneras, como es el caso de “motores de reglas”.

Cuando metemos Machine Learning en un modelo IA, digamos que lo entrenamos con unos datos o “samples” que serán la base para las futuras resoluciones del modelo. No voy a entrar mucho más en esto porque ya hicimos un post enfocado al Machine Learning.

Lo que quiero transmitir es que el siguiente nivel de la IA generativa ha sido posible con el Machine Learning y el Deep Learning, debido a que una máquina puede actuar e intervenir a través de una red neuronal que se asemeja al comportamiento humano; o más bien, al raciocinio humano.

Quedaros con el “aprendizaje no supervisado” de este sistema porque es una de las claves diferenciadoras.

IA generativa e IA discriminativa

No son lo mismo y vienen marcadas por el modelo de Machine Learning, concretamente por su método.

La misma IBM apunta que los modelos de IA generativa modelan la distribución de puntos de datos con el fin de predecir la probabilidad conjunta que existe de que un punto de datos aparezca en un espacio: todo sin supervisión.

Estudian una serie de patrones para tener ciertas nociones básicas: las motos tienen 2 ruedas, los ojos están a los costados de una nariz, etc. A esto les llaman predicciones porque, claro qué existen motos de 3 ruedas y hay animales que tienen los ojos en los laterales de la cabeza. Ahora bien, existe una altísima probabilidad de que esto no sea lo común.

Si entrenamos un modelo generativo con datos de texto para que sugiera correcciones ortográficas o autocomplete palabras (al estilo teclado de iOS o Android), es posible que sea capaz de escribir un texto por sí solo.

En el otro lado, tenemos los modelos de IA discriminativos, que sí supervisan su aprendizaje, limitan las clases de datos y todo ello para una predecir una “probabilidad condicional” de que un punto de datos acabe en una clase.

Esto sirve para saber diferenciar entre una mujer de un hombre según sus rasgos o aparato reproductor. Lo mismo ocurre para diferenciar un coche de una moto.

Cómo construir un modelo de IA generativa y entrenarlo

ia generativa

Mucho dinero y mucho talento, pero profundicemos sobre ello. Los ejemplos más vivos de IA generativa son GPT-4, DALL-E, Bard, Sora o Bing AI. Unos nos ofrecen diapositivas, tablas, textos, códigos… mientras otros van más allá con imágenes y vídeo con todo lujo de detalles.

Primero, hay que crear toda una infraestructura Machine Learning y vas a necesitar buenos ingenieros informáticos, así como científicos de datos para ello. Esto cuesta dinero, pero te va a sorprender que la mano de obra no es lo más costoso.

Después, debemos entrenarlo con millones de datos, y esto se traduce en TeraBytes. Springboard publicó una comparativa de los modelos IA GPT-3, Turing o Bard respecto a a la cantidad de parámetros entrenables. Aunque no sea oficial, dijeron que GPT-3 habría sido entrenado con 45 TB de texto de todo Internet (Wikipedia y libros).

Estamos hablando de millones de dólares, pero esto no se queda aquí: necesitas el mejor hardware posible para procesar miles y miles de peticiones en un mismo minuto. Aquí es donde entran AMD y NVIDIA con sus chips IA que son tan cotizados.

Cuando accedemos a Bard o ChatGPT, estamos accediendo a una máquina que es capaz de atender las peticiones a una velocidad realmente rápida y con una precisión fabulosa. Y no, esa máquina no está potenciada por tu Intel Core o tu AMD Ryzen, sino por algo mucho más profesional: muchos núcleos y, especialmente, mucha memoria.

Hace nada NVIDIA anunció Eos, una fábrica IA con 4.608 tarjetas gráficas H100 y 1152 procesadores Intel Xeon Platinum 8480C. Traducido en núcleos, cada H100 tiene 16896 CUDA Cores y cada Xeon Platinum 8480C contiene 56 núcleos. Esto hace un total de una GPU con 77.856.768 núcleos y una CPU con 64.512 núcleos.

Dicho superordenador está pensado para atender a las investigaciones del equipo de NVIDIA. No es que se necesite un superordenador, pero sí que es cierto que máquinas gigantes son usadas en el día a día.

Solo me queda recomendaros no perderos nada sobre IA en nuestro blog:

¿Necesitas recomendación sobre GPU para LLM?

Vemos esta pregunta de forma recurrente, y lo que interesa es tener núcleos para tareas IA (AI Accelerators o Tensor Cores) y mucha VRAM. Comenzar con una RTX 4070 Ti SUPER es una buena idea por sus 16 GB GDDR6X, aunque, si necesitas más VRAM, prueba con la AMD Radeon RX 7900 XT o XTX.

post