El ‘boom’ de ChatGPT: ¿Qué es y para qué sirve?

Publicado: marzo 30, 2023

En este artículo:

En las últimas semanas, la atención sobre los sistemas de IA -y en concreto sobre ChatGPT de OpenAI- ha aumentado desmesuradamente. El debate, sin embargo, muestra signos de expectativas exageradas.

De los bots a los ensayos universitarios

ChatGPT se basa en un modelo de lenguaje denominado «Generative Pretrained Transformer (GPT)» que utiliza el aprendizaje profundo para generar textos y contenidos similares a los que generaría un humano. Estos modelos se denominan «generativos» porque generan texto nuevo basado en el “pedido” o entrada que se realice. La inteligencia artificial generativa basada en transformadores también se considera un “trampolín” hacia nuevas aplicaciones que van mucho más allá de las tareas típicas de procesamiento del lenguaje natural, tales como la traducción, el resumen y la generación de textos. Entre los tipos de uso que se encuentran actualmente figuran las nuevas arquitecturas de motores de búsqueda, la explicación de algoritmos complejos, la creación de bots personalizados, la ayuda para crear aplicaciones desde cero, la explicación de conceptos científicos o la redacción de ensayos universitarios, por citar sólo algunos ejemplos.

Haciendo realidad el concepto de un nuevo método de cooperación entre humanos y máquinas, algunos investigadores afirman que la IA generativa también apoyará el proceso creativo de artistas y diseñadores. Los sistemas de IA generativa aumentarán las tareas actuales, acelerando la fase de ideación y creación. Más allá de esta nueva funcionalidad, los modelos de IA generativa también pueden apoyar las capacidades de transformación necesarias para resolver problemas complejos en ingeniería informática.

GitHub, propiedad de Microsoft, sugiere código y ayuda a los desarrolladores a autocompletar sus tareas de programación. Se ha dicho que el sistema autocompleta hasta el 40% del código de los desarrolladores, mejorando así el flujo de trabajo y reduciendo los costos asociados a la codificación.

ChatGPT es una amenaza potencial para el negocio de motores de búsqueda de Google, ya que afecta a su principal fuente de ingresos. Según la empresa de análisis StatCounter, la actual cuota de mercado mundial de Google en búsquedas es del 92,5%, frente al 3% de Microsoft Bing. El New York Times informó de que el lanzamiento de ChatGPT provocó un «código rojo» en Google debido a su potencial para poner patas arriba el negocio de los motores de búsqueda patrocinados por publicidad, que lleva décadas funcionando. Como resultado, se prevé una avalancha de nuevas herramientas transformadoras.

Por ejemplo, se espera que Google anuncie una nueva herramienta de conversión de texto en imágenes llamada «Muse». «Consideramos que el proceso de descodificación de Muse es análogo al de la pintura: el artista empieza con un esbozo de la región clave, va rellenando progresivamente el

color y perfecciona los resultados retocando los detalles», explica un investigador científico de Google. Muse competirá cara a cara con la exitosa versión DALL-E de 12.000 millones de parámetros de GPT-3 de OpenAI, entrenada para generar imágenes a partir de texto. Además, Google está trabajando en un competidor de ChatGPT llamado «Bard», que saldrá a la venta próximamente, según una entrada de blog publicada por el CEO Sundar Pichai.

A finales de enero de 2023, Microsoft anunció una nueva inversión de varios años y miles de millones de dólares en OpenAI. La adquisición es la tercera fase de la asociación, tras las inversiones anteriores de Microsoft en 2019 y 2021.

Microsoft se negó a proporcionar una cantidad específica en dólares, pero la empresa de análisis Semafor informó a principios de este mes que Microsoft estaba en conversaciones para invertir hasta 10 mil millones de dólares. En un comunicado de prensa, Microsoft dijo que la renovada asociación acelerará los avances en IA y ayudará a ambas compañías a comercializar tecnologías avanzadas. Además, OpenAI anunció una suscripción mensual de 20 dólares al servicio, inicialmente sólo para usuarios de Estados Unidos. Un portavoz dijo que esto debería proporcionar un servicio más rápido y estable y la oportunidad de probar antes las nuevas funciones.

En el Foro Económico Mundial (FEM) de Davos, el consejero delegado de Microsoft, Satya Nadella, señaló que está surgiendo una nueva generación de plataformas de IA con un enorme potencial empresarial, que ofrecen servicios para motores de búsqueda, redes sociales y nubes digitales. La riqueza generada por las empresas que sepan aprovechar al máximo estas tecnologías tendrá un efecto en cascada.

Reforzando esta afirmación, Nicole Sahin, directora general de una empresa mundial de selección de personal, señaló que, en lugar de emplear a cinco ingenieros de software para escribir código, pronto sólo hará falta un ingeniero de sonido para revisar lo que sugiere una herramienta de IA. Es probable que se produzcan otras consecuencias, aunque sus efectos son aún impredecibles. La tecnología de transformación se acelera exponencialmente, mientras que la competencia entre los gigantes tecnológicos se intensifica sin fin a la vista.

En un artículo reciente en ZDNET, Yann LeCun, científico jefe de IA de Meta, afirmaba que media docena de startups tienen tecnologías muy similares. GPT-3 se compone de múltiples piezas de tecnología desarrolladas a lo largo de muchos años por muchas partes.

ChatGPT utiliza arquitecturas de transformadores preentrenadas de forma autosupervisada. Pero el aprendizaje autosupervisado es algo por lo que llevo abogando mucho tiempo, incluso antes de que existiera OpenAI.

Yann Le Cun

LeCun también remarcó que los transformadores son un invento de Google, refiriéndose al modelo de red neuronal lingüística presentado por Google en 2017. El modelo se ha convertido en la base de muchos programas de lenguaje, incluido GPT-3, y el trabajo en estos programas se remonta a décadas atrás. El primer modelo de red neuronal lingüística -en aquella época era grande, pero para los estándares actuales es diminuto- fue desarrollado por Yoshua Bengio, director del instituto canadiense MILA de IA, hace unos 20 años. El trabajo de Bengio sobre el concepto de «atención» fue

retomado más tarde por Google y se convirtió en un elemento fundamental de todos los modelos lingüísticos.

Según LeCun, ChatGPT hace un uso extensivo de una técnica llamada «aprendizaje por refuerzo a través de la retroalimentación humana», en la que los humanos clasifican el resultado de la máquina, mejorándolo, de forma muy parecida al Page Rank de Google para la web. «Este enfoque no se introdujo en OpenAI, sino en la unidad DeepMind de Google», explica.

En opinión de LeCun, ChatGPT es menos un caso de avance científico que un ejemplo de ingeniería decente.

«Está bien montado, pero no es revolucionario, aunque así es como lo percibe el público», dijo LeCun. No es el único en señalar que el actual revuelo se debe en gran medida a que el público en general -y también muchas empresas- consideraban antes la IA como un escenario puramente futuro y no creían que fueran a poder utilizar la tecnología ellos mismos este mes o el siguiente. OpenAI ha atraído una enorme atención con una campaña de marketing bien controlada simplemente «cogiendo desprevenidos a los usuarios finales». Junto a la opinión de LeCun, hay que tener en cuenta que «Conocimiento» y «Sentido» son dos conceptos diferentes y forman parte de una jerarquía que empieza con los datos de los que se extrae la información, creando así conocimiento y sabiduría en el nivel más alto del orden.

A las herramientas basadas en transformadores como ChatGPT aún les queda mucho camino por recorrer, y es cuestionable que lleguen a alcanzar una verdadera comprensión -o: sabiduría, la forma más elevada de inteligencia humana.

La capacidad de ChatGPT para imitar la forma de hablar y escribir de personas reales ha despertado inquietud por su potencial para sustituir a escritores profesionales o hacer los deberes de los estudiantes. Además, a medida que la IA generativa ha desencadenado una nueva ola de creatividad artificial, aumenta la preocupación por su impacto en la sociedad. El conocido artista Carson Grubaugh comparte esta preocupación y predice que gran parte de la mano de obra creativa, incluidos los artistas comerciales que trabajan en el entretenimiento, los videojuegos, la publicidad y la edición, podrían perder su empleo debido a la IA generativa.

Además de los profundos efectos sobre las tareas y los puestos de trabajo, los modelos de IA generativa han hecho saltar las alarmas en la comunidad de gobernanza de la IA. Uno de los problemas de los grandes modelos lingüísticos es su capacidad para generar contenidos falsos y engañosos.

Investigadores de Meta entrenaron un transformador generativo con 48 millones de artículos para resumir artículos académicos, resolver problemas matemáticos y escribir código científico. El sistema fue retirado después de menos de tres días de estar en línea. Los usuarios se dieron cuenta de que el sistema producía resultados incorrectos, malinterpretando hechos y conocimientos científicos.

Más alarmantes son los sistemas con capacidades avanzadas para dejar obsoleta la Prueba de Turing, que pone a prueba la capacidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible del de un ser humano. Esta prueba se consideró en su día el

«santo grial» de la investigación del comportamiento cuando no existía Internet. Las capacidades actuales de ChatGPT pueden utilizarse indebidamente para generar noticias falsas y desinformación en plataformas y ecosistemas globales conectados a Internet.

Dado que los grandes modelos lingüísticos necesitan ser entrenados en conjuntos de datos masivos representados por libros, artículos y sitios web, estas fuentes de conocimiento pueden estar sesgadas -y dado que al menos la versión actual de ChatGPT no proporciona automáticamente las referencias (o pruebas) de su información generada, con lo que podría comprobarse fácilmente de forma estructurada, esto sólo hace las cosas más problemáticas. A pesar de la considerable reducción de resultados perjudiciales y falsos gracias al análisis humano y a la retroalimentación, OpenAI reconoce que sus modelos aún pueden generar resultados tóxicos, desfasados, sesgados y objetivamente incorrectos.

Aunque la IA generativa cambia las reglas del juego en numerosos ámbitos y tareas, existe una sólida necesidad de gobernar la difusión de estos modelos y su impacto en la sociedad y la economía. El debate entre la adopción centralizada y controlada con límites éticos firmes, por un lado, y la innovación más rápida y la distribución descentralizada, por otro, serán necesarios para desarrollar una comunidad de IA generativa en los próximos años.

Entre las cuestiones que habrá que resolver figuran la alteración de los mercados laborales, la legitimidad de los datos obtenidos, la concesión de licencias, los derechos de autor y la posibilidad de que se produzcan contenidos sesgados o perjudiciales y desinformación, por citar sólo algunas. Sólo se podrá lograr una expansión reflexiva y beneficiosa de las tecnologías de IA generativa cuando existan controles y equilibrios sólidos. Por tanto, es probable que el actual entusiasmo por ChatGPT se enfríe a medida que la cobertura desfavorable de los medios de comunicación erosione la confianza necesaria para el avance de la tecnología.

Sólo una aceptación sostenible por parte de los usuarios demostrará que la humanidad ha alcanzado el nivel revolucionario de una nueva era industrial.

Fuente: Journal getAbstract

Compartir

Artículos relacionados

Todos los artículos