
Publicado: 2025-09-08
Etiquetas: IA, Juegos, Proyectos
Buenos días, tardes o noches:
Voy a contar un proyecto que tuve en mente durante mucho tiempo, que empecé varias veces pero nunca llegué a avanzar mucho y al final abandoné. No hace mucho tiempo me di cuenta de que era una idea nefasta y que fue una suerte que no dedicase el tiempo a ella.
Yo soy muy aficionado a los videojuegos así que consumo mucho contenido sobre el tema. Si estás un poco puesto en el tema te habrás dado cuenta de que las webs de noticias cada vez tienen más basura: rumores sin fundamento alguno, clickbait, noticias para causar polémica y que la gente se mate en los comentarios... Hace bastantes años me vino un momento de esos de "yo podría hacerlo mejor" y empecé a diseñar la web de videojuegos perfecta. Solo tendría contenido de calidad, confirmado por las empresas involucradas y además sería totalmente imparcial.
Yo en la universidad me especialicé en inteligencia artificial, luego hice un master en inteligencia artificial y posteriormente cursé un doctorado en inteligencia artificial por lo que, obviamente, mi web de videojuegos iba a usar mucha inteligencia artificial. Estamos hablando de hace más de 5 años, antes de que salieran los LLMs que están tan de moda ahora. Por tanto mi diseño empleaba las técnicas que conocía en la época.
Por un lado tenía un conjunto de agentes que se analizaban las webs oficiales para extraer posibles noticias. Esto era básicamente scrapear las webs igual que hacen las empresas de IA hoy en día. Al menos para la web de Nintendo. PlayStation y Xbox tenían y tienen RSS. Las noticias en este punto estarían definidas en un lenguaje semántico tipo:
ANUNCIO FECHA, Mario Galaxy 3, 2027-01-01
CANCELACION, Metroid Prime 5
ANIVERSARIO LANZAMIENTO, Mario Land
Luego había un modelo que llamé "editor" que procesaría todas las anotaciones semánticas del paso anterior y se encargaría de elegir las noticias más relevantes. Sería un típico modelo de ranking.
Una vez el editor ha decidido, una serie de gramáticas contextuales no determinísticas que llamé "autores" se encargarían de componer el texto de la noticia. Para añadir variedad se me ocurrió que podría tener diferentes gramáticas con estilos algo distintos para añadir variedad.
Por supuesto (y por suerte), nunca llegué a crear esta página perfecta.
Sí que programé algunos de sus componentes:
Un scrapper para la web de Nintendo que se bajaba diariamente la lista de todos los juegos anunciados para sus consolas. Era capaz de descubrir si se había añadido nueva información a algún juego como la fecha de lanzamiento.
Clientes RSS en Python para bajarme y archivas las noticias de Xbox y PlayStation.
Creé manualmente una lista con los juegos más famosos de cada consola y sus fechas de lanzamiento.
Una gramática para generar noticias tipo "tal día como hoy..." con juegos retro que se lanzaron ese mismo día del año.
La principal razón por la que abandoné la idea es porque requería muchísimo trabajo. Crear los scrappers y mantenerlos al día si se rompían, el modelo editor para elegir las noticias, crear las gramáticas para que generasen cosas con sentido y no parecieran muy repetitivas... Todos y cada uno de los componentes requerían bastante trabajo. En principio iba a ser una web solo para mí. No pensaba hacerla pública así que no valía la pena invertir tanto tiempo. Podía simplemente suscribirme a los RSS de las distintas empresas y mirar lo que iban publicando.
No influyeron en mi decisión que la gente es muy reacia a leer contenido autogenerado y a mí también me pasa. Por aquel entonces no me lo planteé pero ahora, en plena vorágine de la IA, dejo de leer cualquier cosa en cuanto sospecho que no la ha creado un humano. Sería bastante hipócrita si yo me monto un chiringuito automatizado.
El diseño también tenía algunos problemas. Como por ejemplo ¿Para qué servía realmente el modelo "editor"? Si el análisis semántico ha encontrado 10 noticias no hace falta ningún tipo de selección. Se podrían generar los textos de las 10. Era una web, no un periódico en papel por lo que no había límite de tamaño.
Si tuviera que diseñar un sistema así hoy en día muy posiblemente sustituiría todos los componentes por LLMs porque ahorrarían muchísimo trabajo pero habría que poner algún tipo de capa de seguridad para controlar las alucinaciones y que no escribiera cosas raras. Por un lado los LLMs son muy versátiles pero por el otro nunca nos podemos asegurar al 100% qué va a generar. Cientos de miles de millones llevan invertidos en esto y los modelos siguen teniendo alucinaciones como hace años.
Pero el problema de base es la utilidad de esta web. Mi idea era evitar contenido basura usando solo las fuentes oficiales pero entonces ¿qué aportaba mi web respecto a suscribirse al RSS de cada empresa? Nada. El periodismo de calidad requiere análisis e investigación cosa que no se puede automatizar.