COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

OpenAI, la famosa organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, acaba de publicar uno de sus proyectos más impresionantes hasta la fecha.

Se trata de su nuevo modelo de lenguaje llamado GPT-3, uno que es capaz de programar, diseñar y hasta conversar sobre política y economía. La herramienta fue ofrecida al público como una API open source y el Internet estalló con mucha hipérbole de cómo iba a cambiar el mundo. Y sin embargo, uno de sus mismos creadores admite que el “hype” es mucho con demasiado.

Nikolái Ironov, la inteligencia artificial que engaño a varias empresas

Por qué es necesario regular la superinteligencia artificial

Una inteligencia artificial será capitán del barco que unirá Reino Unido con EE.UU.

¿Qué es GPT-3?

GPT-3 es el modelo de lenguaje más poderoso creado hasta ahora. Es decir, una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Es lo que se usa en aplicaciones de procesamiento natural del lenguaje o PNL.

Para entender qué es exactamente GPT-3 y su alcance hay que conocer primero algunos conceptos básicos:

  • Inteligencia Artificial es una rama de la informática que estudia el diseño y construcción de máquinas capaces de replicar el razonamiento humano y, por tanto, de resolver tareas para las que no se las ha programado previamente. Aunque hay tantas definiciones como controversia al respecto.
  • La Inteligencia Artificial débil (que es lo que hemos logrado hasta ahora con GPT-3, Siri o el filtro de SPAM de Gmail) puede simular ese razonamiento humano para un tipo específico de problemas (jugar al ajedrez), pero no es capaz de simular la inteligencia humana en general.
  • La Inteligencia Artificial fuerte o general podría resolver cualquier tarea intelectual como un ser humano. Hasta ahora, solo es ciencia-ficción (T-800, HAL 9000, Wall-E o Número 5). Hasta ahora, claro.
  • Machine Learning o aprendizaje automático es una técnica de Inteligencia Artificial con la que se entrena a las máquinas para reconocer patrones: defino las características de un gato (morfología, colores, proporciones), le paso al modelo un montón de fotos de gatos hasta que, llegado un momento dado, este será capaz de buscar y encontrar esas características y determinar la probabilidad de que en una imagen haya un gato.
  • Deep Learning o aprendizaje profundo es una subtécnica de Machine Learning cuya principal diferencia con la misma es que no hay que indicarle al modelo lo que debe buscar. Si le pasamos suficientes (muchas) fotos de gatos será capaz de encontrar por sí mismo los patrones que los identifican.
  • A su vez, esos modelos pueden tener un aprendizaje supervisado o no. El aprendizaje supervisado es aquel que se basa en datos etiquetados (te digo que esta foto es de un gato y esta no) mientas que el no supervisado trabaja con datos no etiquetados en donde intenta identificar diferentes patrones.

GPT-3 es un modelo de Deep Learning que ha utilizado una enorme cantidad de datos no supervisados. En concreto, 700 GB de datos disponibles públicamente en Internet procesados por miles de GPUs.

Es esa nueva escala tanto de potencia de cálculo como de la información con la que ha sido entrenado la mayor diferencia de GPT-3 respecto a su antecesor, ya que gestiona con 175.000 millones de parámetros por los «apenas» 1.500 millones con los que contaba GPT-2, pero el sistema sigue sin saber si los textos que crea tienen algún sentido y menos aún si el código que genera funciona correctamente, sólo la probabilidad de que sea «adecuado» en base a los parámetros de entrada proporcionados.

Debilidades

Para que GPT-3 haga su magia un humano debe alimentarlo con una porción de texto. GPT-3 no va a reemplazar a los programadores ni a los diseñadores, está muy lejos de hacerlo. El trabajo para diseñar una herramienta que use la API correctamente más las instrucciones necesarias para que GPT-3 genere un resultado aceptable sigue siendo hecho por el humano.

GPT-3 tiene muchas debilidades y comete muchos errores tontos que un humano nunca cometería. El modelo no tiene ninguna representación interna de lo que las palabras que predice significan. Básicamente, puede generar una respuesta pero esto no quiere decir que la entienda.

Esto hasta ahora.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO