/ lunes 18 de abril de 2022

Robots serán cada vez más creativos

Las nuevas generaciones de sistemas de aprendizaje están causando sensación con su increíble capacidad para generar trabajo creativo de toda índole

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Futbol

Santos recibe a Rayados en inicio de Apertura 2022

Santos y Rayados debutan en Torneo Apertura 2022

Gómez Palacio

"Hijo, al fin con nosotros": velan cuerpo de Ángel David en Gómez Palacio

El cuerpo de Ángel David llegó este fin de semana a Gómez Palacio

Local

Continúan medidas de prevención contra el Covid en empresas de Coahuila

Aseguró Nazira Zogbi Castro, subsecretaria de Empleo y Productividad en el Trabajo

Teatro

Fallece el director teatral Peter Brook a los 97 años

Peter Brook, nacido en Londres, fue de los principales actores en una revolución que buscaba una nueva conexión entre el público y la interpretación

Gossip

“Una artista nunca se va”: compañeros de Susana Dosamantes lamentan su muerte 

Actores como Jacqueline Andere resaltan su carretera artística y la manera de impulsar a sus hijos

Gossip

Ganadores de La Academia 20 Años cumplirán su sueño de grabar disco

El crítico Arturo López Gavito confirma que además del premio en efectivo, tendrán un contrato

Gossip

Jo Jo Jorge Falcón dará nuevo show en apoya a la Casa del Actor

En el marco de su gira del adiós, Jo Jo Jorge Falcón forma parte del elenco de 14 comediantes que actuarán este miércoles 6 en el Centro Cultural Teatro 1

Gossip

Española Vega quiere demostrar con su música que feminismo no es moda

La española Vega grabó Ladra, un tema feminista con La Marisoul y Francisca Valenzuela para su disco Mirlo blanco

Cultura

Mario Iván Martínez busca derribar los mitos de Van Gogh

Mario Iván Martínez indaga en la vida del artista en su unipersonal Van Gogh. Un girasol contra el mundo, que muestra la transformación mística el artista