[...] En particular, los avances de los LLM (Large Language Models,
tipo ChatGPT, etc.). Parece que todos aquellos que se ganan la vida en
los oficios del arte y el entretenimiento, llevan un tiempo bastante
preocupados ya que, por ahora, estas herramientas están probando ser una
amenaza a su fuente de sustento, más que que una herramienta. Incluso
si no consideramos a los diseñadores de juegos parte de este grupo, la
situación interpela a otros trabajadores de este mundillo, como
diseñadores gráficos, ilustradores, o traductores. Tal vez sea por esta
razón, que Sirio Sesenra improvisó un vídeo
al respecto hace unos meses, en que se limitó a confesar su miedo y
desconocimiento sobre este tema, abogando por la muy europea estrategia
de "regular primero y preguntar después."
Aunque la verdad es que si uno atiende a las preocupaciones últimas que conlleva este auge de la Inteligencia Artificial... A lo mejor no es tan mala idea.
Sin
embargo, y tal y como yo lo veo, son en todo caso algunas de las
grandes corporaciones las que van a querer regular a largo plazo. Al fin
y al cabo, si eres un ejecutivo de Disney, Marvel, o Nintendo, tu
sueldo depende de las leyes que permiten la propiedad intelectual, por
lo que antes que permitir a todo el mundo entrenar a su IA con lo que
producen otros (generando así oleadas de contenido capaz de sepultar al original), vas a querer hacer algo para continuar alargando tu monopolio sobre la cultura.
Pero claro: yo no soy un experto en este tema.
Al mismo tiempo, da la casualidad de que pasé buena parte de los años 2020 y 2021, documentándome sobre el tema de la IA de manera amateur. Fue antes de que apareciera el chatbot de ChatGPT en 2022.
¿La razón? Pues nada, que estaba escribiendo una novela de ciencia ficción sobre el tema, la cuál se ha quedado cogiendo polvo en una carpeta de mi ordenador, ya no porque ninguna editorial la quiera, si no porque es cada vez más evidente que el tratamiento que di a la temática se está quedando desactualizado. Y aunque esto no va de mi novela, resulta que ésta trataba el tema de si una IA puede escribir historias. Si eres seguidor habitual del blog, ya sabrás de mi afición a la narratología, y es de hecho la narratología computacional la que se ocupa de cubrir este asunto. Eso sí: no es la literatura tradicional, si no los juegos de rol y los videojuegos, los que más podrían beneficiarse de que el algoritmo aprenda a contar historias. Resultaría conveniente, habida cuenta del del carácter interactivo de sus narrativas, así como de la actual dependencia de ambos de costosos y complejos sistemas diseñados por humanos.
Muchos de vosotros seguro que ya habéis probado a dirigir una partida a ChatGPT, o pedirle que os dirija una a vosotros, y ya que he etiquetado este artículo como opinión, voy a continuar dando mi opinión sincera sobre este tema.
Incluso cuando contamos historias basadas en hechos reales, contar una historia consiste en seleccionar los hechos y maquillarlos, con una intención clara y subjetiva. El atractivo de que te cuenten una historia reside en gran medida en quien la cuenta: su visión, su perspectiva, sus sesgos, sus creencias... Un algoritmo carece de todas esas cosas. Incluso en el tipo de historias que podríamos llamar "de género", o más bien, formulaicas, en que los hechos de la ficción están diseñados a la medida de la audiencia, siempre se espera alguna sorpresa, para diferenciarse de la competencia. Casi todo el discurso en torno al potencial de la IA para contar historias, ha girado en torno a la promesa de un futuro plagado de películas o videojuegos "a la carta"; pero esto no es tan diferente de la promesa implícita en gran parte de los juegos fiction first de La Forja y post-Forja, de descentralizar la autoría del GM para permitir a los jugadores un mayor control sobre de dónde viene y a dónde va la campaña.
La respuesta de muchos jugadores a esto, fue un rotundo "no, gracias." Porque quieren ser sorprendidos.
Al mismo tiempo, no puedo obviar que la misma escuela de diseño ha alumbrado a diseñadores y juegos que pretenden lo opuesto, que sería eliminar cualquier necesidad de autoría (sea del GM o de los jugadores) y alcanzar El Dorado: una utopía rolera de narración procedural y auto-sostenible a perpetuidad. En este caso, soy yo el que dice "no", y quiero creer que lo hago en nombre de todos los jugadores Narrativistas, que consideramos la autoría nuestra fuente de gozo.
A ver, que a mi siempre me queda lo de escribir novelas y eso.
Gano con ello exactamente lo mismo que por jugar a rol con mis amigos.
Como me produce muchos cargos de conciencia escribir estos artículos en los que me limito a dar mi opinión (pero también porque habrá algunos de vosotros que estáis convencidos de que ChatGPT podrá dirigiros una campaña de D&D 5ta en seis meses máximo), voy a citar algunos de los estudios más recientes que he podido leer al respecto, para que comprobéis el estado en que está la cosa.
En el primero, los investigadores le dieron al algoritmo la tarea de escribir una historia breve (cinco frases), y valoraron el resultado en áreas como la novedad, la sorpresa, o la diversidad temática. Hay que tener en cuenta, que en experimentos previos, había quedado demostrado que los algoritmos de tipo LLM perdían coherencia con el avance de las historias que contaban, descuidando la premisa inicial, incidiendo de forma constante en el mismo número limitado de temáticas, y en general, sus historias carecían de suspense y tensión. Pero claro, en estos experimentos se había comparado el trabajo de las LLM con el de autores premiados, de fama y renombre.
En este estudio las compararon con el humano medio. El algoritmo salió perdiendo igual.
Aunque
las LLM tienen un vocabulario más rico, las historias humanas son más
imaginativas. Un dato curioso, fue descubrir que los escritores humanos
usan más a menudo los pronombres que los algorítmicos, recurriendo a la
primera o segunda persona, mientras que los LLM preferían la tercera.
Asumo que porque la IA está entrenada en gran medida con narraciones
literarias, mientras que los seres humanos somos "entrenados" a partir
de relatos orales...
Pero esa es mi opinión de no-experto.
En este segundo estudio, se probó con historias complejas. Se mejoró a los LLM con algo llamado "LLM modulo", para poder realizar el tipo de "planificación simbólica compleja" que requiere crear narrativas, y luego se los integraba dentro de una especia de videojuego. En él, trabajarían con un "ASP solver", cuya función es "simular actualizaciones en el estatus del mundo basadas en el plan narrativo generado por el LLM, ofreciendo feedback respecto a cuán factible es el plan en cuanto a causalidad" (sobre todo esto, ni puta idea: yo tema narratología sí, tema ordenadores y tal, no lo voy ni a intentar). El resultado fue que a los LLM les iba bien mientras las historias que se le exigían fueran simples. El problema de fondo, es que el algoritmo no acaba de comprender lo que significan cosas como "intencionalidad" o "conflicto", o incluso lo que supone una acción fracasada, lo que resultaba en narrativas que no se basaban ni remotamente en el sentido común. Por poner un ejemplo, cuando se le pidió continuar la historia sobre un padre tratando de conseguir medicina para su hijo enfermo, interpretó como un conflicto dramático la necesidad del padre de conseguir la medicina para su hijo... con la necesidad del hijo de conseguir la medicina para usarla él mismo. También decidió que otro personaje enfermara a propósito para agotar las reservas de medicina y que nadie pudiera obtenerlas.
En el artículo se apunta correctamente a que la dificultad estriba en describir los conflictos dramáticos en términos estadísticos que el LLM pueda entender. Además, el estudio concluyó también que, dado que la mayoría de obras de ficción mantienen a propósito cierta ambigüedad al mostrar las intenciones de cada personaje, a los pobres LLM les cuenta muchísimo aprender de ellas.
Venga, os cuento sobre el último,
que pinta un poco más optimista. Este estudio se centró en el problema
concreto que tienen los LLM para apostar por la "progresión negativa".
Lo que esto significa, es que el algoritmo no comprende por qué el héroe tiene que ir perdiendo para que pueda ganar después, o que hay que prorrogar la información dada a la audiencia, para generar expectativa de cara a la sorpresa. Estas técnicas humanas deben resultarles ineficientes para transmitir los hechos, así que las historias de las IAs tienden a pasar de puntillas por el punto de inflexión y clímax de las historias, resolviéndolos a toda prisa y favoreciendo los finales positivos. Lo que se hizo en este experimento (si yo lo he entendido bien) fue enriquecer los datasets de los LLM con sinopsis de películas, usándolas para enseñarles a reconocer giros argumentales, así como patrones argumentales sencillos, como la montaña rusa de Kurt Vonnegut, o la pirámide de Freytag. Estas dos estructuras narrativas se caracterizan por el uso de picos y abismos, que describen el auge y caída de los protagonistas.
Aunque no deja de ser un gran avance, el estudio afirma que sólo lograron una mejora de un 40% en términos de "suspense, y emoción."
Imagina ser uno de esos tíos esperando poder tener una ciber-muñeca sexual,
y tener que escuchar cosas como "¡ahora con un 40% menos de pene!"
Esto no significa que una LLM no pueda llegar a contar historias como un humano, tan sólo que aún le queda mucho por aprender, y lo más seguro es que el algoritmo que logre esa proeza sea algo incluso más avanzado que una LLM.
Yo qué sé: no soy un experto.
Si bien, mi opinión inexperta, es que esta es un área en la que no podrán llegar a ser mejores que un escritor humano, porque incluso entre escritores y narradores humanos, resulta difícil decir quien es mejor que otro, de forma objetiva. Así que anticipo un futuro en que las buenas historias siguen siendo escritas y contadas por humanos, pero las malas (aquellas para las que se use a una IA para ahorrarse algunas perras), al menos serán un poco mejores.
En fin: que es que ChatGPT, en su versión actual, ya puede escribir mejor que ciertos guionistas de Hollywood.
Para acabar, quiero mencionar uno de los primeros libros que leí para documentar esa novela de la que os hablé más arriba. Es el famoso Vida 3.0, del físico y experto en machine learning Max Tegmark. En su prólogo, presenta un escenario de ficción novelado, que especula sobre cómo sería la aparición de una AGI: una Inteligencia Artificial General, o una IA capaz de pensar como un ser humano, y mejor. Una de las proezas hipotéticas que le atribuye Tegmark a la imaginaria AGI de este prólogo, es la de crear una plataforma de streaming (equivalente a Netflix), donde todas las películas y series han sido creadas desde cero por la IA, con actores y escenarios hiperrealistas, e historias pensadas por ella.
Dejando de lado la fantasía de creer que nadie sospecharía que una IA esté detrás... Creer que sería capaz de barrer con la competencia de la noche a la mañana es una fantasía aún mayor.
Cualquiera que esté un mínimo informado sobre el mercado y la cultura que rodea la industria del entretenimiento, sabe que tener los medios para producir, editar, y distribuir, no es suficiente. Necesitas anunciantes (los cuáles se encuentran siempre monopolizados por otras plataformas), necesitas publicidad y marketing (un pozo sin fondo al que tirar el dinero, sin garantías de atraer los ojos de la audiencia), y necesitas "talento", es decir: personalidades conocidas que avalen lo que ofreces. ("¡Pero los super-héroes mataron a la estrella de Hollywood!" Claro, por eso Marvel le ha aparcado a Robert Downey Jr. siete camiones llenos de dinero frente a su mansión...)
En resumen, que si estás preocupado por el tema de la IA, sobre esto al menos, podemos relajarnos.
Y
como siempre digo: escucha a los expertos, pero comprueba sus
credenciales, quien les financia...y asegúrate que se limitan a hablar
de aquello sobre lo que son expertos.
Fuente: 7-9
Fuente: 7-9
No hay comentarios:
Publicar un comentario