Anuncio cerrado

Inteligencia artificial, o IA, es un término que se utiliza mucho en estos días. Ya sea en un teléfono inteligente con Androidem, un servicio de streaming que recomienda tu próxima película o una plataforma de música que crea automáticamente una lista de reproducción: parece que la IA está simplemente en todas partes. Pero, ¿cómo evolucionó la definición de IA y qué significan realmente algunos de los términos técnicos de IA?

¿Qué es exactamente la IA?

Históricamente, la IA se refería a la inteligencia a nivel humano lograda artificialmente a través de máquinas. Sin embargo, el término ha cambiado ligeramente su significado original a lo largo de los años y ahora se utiliza a menudo, entre otras cosas, como un término de marketing amplio. Hoy en día, casi todo lo que muestra signos de inteligencia, desde recomendaciones de comercio electrónico hasta sistemas de reconocimiento de voz, se denomina IA. Sin embargo, hay otros términos y abreviaturas asociados con la inteligencia artificial. Arrojemos un poco de luz sobre los más comunes.

Aprendizaje automático (ML – aprendizaje automático)

El aprendizaje automático es una subcategoría de la IA en la que los sistemas aprenden de los datos y la experiencia para tomar decisiones o realizar diversas acciones; por ejemplo, si alimenta a un algoritmo con miles de imágenes de gatos, aprenderá a identificar un gato. Luego puedes proporcionar fotografías de gatos, perros y otros animales. El sistema debería entonces poder seleccionar imágenes de gatos basándose en lo que ha "aprendido". Este proceso de aprendizaje implica dos fases principales: entrenamiento e inferencia, lo que nos lleva a los siguientes términos.

Entrenamiento

La fase de entrenamiento es una etapa larga del aprendizaje automático en la que el sistema recibe cantidades masivas de datos para aprender (por ejemplo, las imágenes de gatos antes mencionadas). Sin embargo, los datos utilizados pueden ser elementos específicos, como flores, o incluir muestras más grandes, como todo Internet. Entrenar sistemas de inteligencia artificial modernos como ChatGPT puede costar millones y requerir enormes recursos informáticos.

Derivación

Después del entrenamiento, el sistema aplica los conocimientos adquiridos a nuevos datos. En esta fase es donde se produce la aportación del usuario final y la integración directa con la IA. Por ejemplo, ahora que el sistema sabe qué es un gato, podemos darle una foto y lo identificará. Pregunta a los chatbots de Google Gemini o Microsoft Copilot cuál es la capital de Inglaterra y te darán una respuesta. En esta fase, el sistema recurre a su conocimiento establecido. Esta etapa requiere significativamente menos potencia informática.

Inteligencia General Artificial (AGI)

AGI se refiere a máquinas con inteligencia a nivel humano, capaces de tomar decisiones, planificar y comprender el mundo en un contexto más amplio. A diferencia de los sistemas de IA actuales, la AGI tendría una comprensión y una conciencia más profundas, similar a lo que vemos en la ciencia ficción. Aunque AGI sigue siendo la música del futuro lejano, ya que descifrar este código requeriría muchas cuestiones técnicas, filosóficas y morales, es un área de investigación importante.

IA generativa

Tradicionalmente, la IA se ha destacado en la clasificación y el reconocimiento, pero la IA generativa va más allá de estas ideas y crea contenido nuevo como texto, imágenes y música. Este avance revolucionario abrió nuevas posibilidades en la IA, permitiendo a los sistemas generar resultados creativos basados ​​en datos de entrada. Esta forma de IA también brinda los beneficios más tangibles a los usuarios cotidianos, especialmente si alguna vez usó ChatGPT para diseñar un correo electrónico o Midjourney para generar una imagen de un gato.

Redes neuronales

Las redes neuronales son los componentes básicos y la columna vertebral de la IA moderna. Han existido durante décadas y siguen el modelo del cerebro humano. Consisten en neuronas interconectadas que procesan datos a través de diferentes capas, lo que finalmente produce una salida. Entrenar una red neuronal implica ajustar las conexiones entre neuronas para mejorar la precisión.

Redes de transformación

Un tipo especial de red neuronal, una red de transformación, ha permitido el desarrollo de grandes modelos de lenguaje (LLM) como ChatGPT. Estas redes destacan por comprender el contexto y las relaciones entre los datos, lo que las hace ideales para tareas de procesamiento del lenguaje.

Modelos de lenguajes grandes (LLM)

Cuando se combinan redes neuronales, transformadores y entrenamiento para una red neuronal muy grande, nacen grandes modelos de lenguaje. Los llamados LLM se entrenan con grandes cantidades de datos de texto, lo que les permite generar respuestas similares a las humanas. Los ejemplos incluyen ChatGPT, Claude, LLaMA y Grok. Estos modelos funcionan prediciendo la siguiente palabra de la secuencia y produciendo resultados coherentes y contextualmente relevantes. Sin embargo, esta naturaleza predictiva puede provocar problemas como alucinaciones, donde el modelo genera información plausible pero incorrecta. ¿Y qué son exactamente estas alucinaciones?

Alucinación

Las llamadas alucinaciones ocurren cuando la IA genera información incorrecta debido a su dependencia de modelos predictivos. Este es un desafío importante para los LLM, ya que pueden producir resultados convincentes pero falsos. Un ejemplo clásico de alucinación podría ser recomendar superpegamento o una pistola termofusible cuando se le pregunta cómo evitar que el queso se resbale de la pizza.

Parámetros y tamaño del modelo.

La eficacia de los modelos de IA suele medirse por sus parámetros generales, que representan conexiones en una red neuronal. Los modelos más grandes con más parámetros generalmente funcionan mejor pero requieren más recursos. Los modelos más pequeños son teóricamente menos precisos, pero pueden funcionar con hardware más económico. Por ejemplo, el enorme modelo de nube LLaMA 3.1 tiene 405 mil millones de parámetros, mientras que los modelos que se ejecutan de forma nativa en teléfonos inteligentes constan de sólo unos pocos miles de millones de parámetros.

Modelos de difusión

Los modelos de difusión son modelos utilizados para la generación de imágenes; los modelos de difusión invierten el proceso de agregar ruido a las imágenes durante el entrenamiento. Esto les permite crear nuevas imágenes a partir de ruido aleatorio, guiados por patrones aprendidos.

Recuperación de Generación Aumentada (RAG)

RAG combina IA generativa con fuentes de datos externas para producir resultados precisos y contextualmente relevantes. Al descargar datos adicionales, estos modelos pueden mejorar sus resultados, haciéndolos más confiables y útiles.

Lo más leído de hoy

.