Mark Zuckerberg es un especialista en ganar dinero, pero también en quemarlo. Uno de los grandes ejemplos de cómo gastar sin freno ni sentido es el giro que le dio a Facebook en el 2021, cuando rebautizó la compañía como
Meta y la volcó en desarrollar un mundo virtual en el que supuestamente íbamos a pasar nuestra vida digital, el metaverso, que 80.000 millones de dólares después, está a punto de desaparecer. Pero puede que no sea el último gran fiasco del multimillonario. Ahora busca ponerse en posiciones de cabeza en la inteligencia artificial, aunque el mes pasado se marchó de su empresa
Yann LeCun, uno de los padres de la IA, al que contrató en el 2013, que cree que los grandes modelos de lenguaje (LLM por sus siglas en inglés) que desarrollan muchas compañías “son fantásticos y útiles, pero no son el camino hacia una inteligencia de nivel humano”. Así que, ya fuera de
Meta, propone cómo conseguirla.¿Se puede crear una superinteligencia como la humana sin aprender como lo hacemos los humanos o los animales? El ex responsable de inteligencia artificial de
Meta cree que esa es precisamente la vía. LeCun fue
Premio Turing en 2018 junto con
Geoffrey Hinton y
Yoshua Bengio por sus contribuciones al aprendizaje profundo y en el 2022,
Premio Princesa de Asturias junto a ambos y también
Demis Hassabis. Hace unos días presentó junto a
Emmanuel Dupoux y
Jitendra Malik un estudio titulado Por qué los sistemas de IA no aprenden y qué hacer al respecto, en el que proponen “una arquitectura de aprendizaje inspirada en la cognición humana y animal”.Lo que expone ese estudio es que, con el modelo que siguen los grandes modelos de lenguaje, “la máquina no aprende por sí misma; requiere una cadena de montaje de ingenieros de investigación y científicos de datos que recopilen, formateen y seleccionen diferentes tipos de datos, cada uno de los cuales se utiliza para entrenar sucesivamente diferentes componentes del modelo, cada uno con funciones de pérdida y recompensa diseñadas específicamente”. De esa forma, “la máquina se queda entonces sin capacidad para aprender de su experiencia”.Una IA que aprenda de la misma forma de los humanos y los humanos ChatGPTLa alternativa sería crear una IA que aprenda de forma autónoma, como lo hacen las personas. En ese modelo, “el agente aprende directamente al interactuar con el mundo”. La propuesta es de un aprendizaje por observación, por acción, que puede extenderse a modos superiores como el aprendizaje por interacción verbal o el juego autónomo. LeCun y sus colegas observan que a “los sistemas de IA actuales les faltan tres capacidades clave que se encuentran en todo el reino animal: la capacidad de seleccionar sus propios datos de entrenamiento (aprendizaje activo), la capacidad de cambiar de forma flexible entre modos de aprendizaje (metacontrol) y la capacidad de percibir su propio rendimiento (metacognición)”.El camino parece más claro, pero es más difícil que el actual. Los autores del estudio recuerdan que “la construcción de una máquina que aprenda como lo hacen los niños se ha vislumbrado desde los inicios de la IA”, pero siguen existiendo varios retos técnicos y éticos que hacen que eso sea ahora mismo un reto muy complicado. En la parte técnica se necesitan, entre otros requerimientos, sistemas de aprendizaje interrelacionados, entornos realistas, modalidades sensoriales para el aprendizaje basado en la observación y métodos para someterlo todo a pruebas. Es estudio apunta que “un enfoque prometedor consiste en comparar a los seres humanos y a los agentes de IA en términos de velocidad de aprendizaje en tareas novedosas; por ejemplo, el número de intentos necesarios para aprender un nuevo videojuego”.Los autores del documento resaltan que desarrollar sistemas de IA que aprenden como los humanos “plantea nuevas preocupaciones éticas que van más allá de las asociadas a las tecnologías de IA actuales. Si se le da a la máquina una capacidad de aprendizaje exploratorio autónomo, resultará más difícil garantizar que sigan alineadas con los objetivos que les habían fijado los científicos. Otro riesgo tiene que ver con el comportamiento. Los animales, incluidos los humanos, evolucionamos para optimizar la reproducción de la especie, aunque nuestro comportamiento cotidiano “suele estar impulsado por objetivos secundarios, como la exploración o el juego”. Por eso, el documento considera que “los agentes artificiales autónomos que se basan en señales sustitutivas similares pueden enfrentarse a vulnerabilidades análogas”.Una IA a partir de la forma de aprendizaje del cerebro ReveLa tercera de las advertencias de LeCun, Dupoux y Malik, es algo que ya vemos de alguna forma en la IA generativa actual, pero que podría agravarse con una inteligencia artificial más humana: “A medida que los agentes artificiales se vuelven más parecidos a los humanos en su comportamiento y sus trayectorias de aprendizaje —advierten—, los usuarios pueden antropomorfizarlos cada vez más, lo que conduce a un apego emocional, una confianza mal depositada u oportunidades de manipulación”. Eso ya está pasando, por lo que cualquier nuevo enfoque debería partir con las líneas rojas marcadas desde la casilla de salida. Pese a todo, parece improbable que muchos empiecen la partida de nuevo, a no ser que la realidad de la superinteligencia les lleve a un callejón sin salida como pronostica LeCun.Lee también· Terafab, chips para la 'civilización galáctica' de Musk. Elon Musk ha presentado Terafab, una gigantesca planta de chips conjunta para las compañías Tesla, SpaceX y xAI que se propone producir un teravatio de potencia de cálculo para IA al año, unas 50 veces más de lo que se produce actualmente en todo el mundo entero. El multimillonario señala que este es “el proyecto de fabricación de chips más épico de la historia, con diferencia”. En la factoría se fabricarían dos tipos de chips: uno para los coches Tesla y los robots Optimus, y otro chip de grado para satélites espaciales de IA. Musk afirma que este es “el siguiente paso para convertirnos en una civilización galáctica”.· Los bots de IA dominarán la red en el 2027. Los bots de inteligencia artificial se están apoderando de la web, según ha explicado Matthew Prince, director ejecutivo de Cloudflare en una entrevista en la conferencia SXSW de Austin. Su previsión, por la velocidad a la que avanza el tráfico de bots de IA, es que esta superará al tráfico humano en internet probablemente el año próximo. Puso como ejemplo una persona que para una compra online visita cinco páginas web.”Tu agente o el bot que realiza esa tarea visitará a menudo 1.000 veces más sitios de los que visitaría un ser humano —explicó—. Así que podría visitar 5.000 sitios. Y eso es tráfico real, y esa es una carga real, con la que todo el mundo tiene que lidiar y tener en cuenta”.· Una novela retirada por estar escrita con IA. Hachette Book Group, uno de las grandes grupos editoriales de Estados Unidos, retiró el jueves Shy Girl (en inglés, chica tímida), una novela de terror de próxima publicación por las acusaciones de que su autora, Mia Ballard, se basó principalmente en la IA para escribirla. El libro ha sido retirado del mercado, aunque en el Reino Unido ya había vendido 1.800 ejemplares. La autora negó haberse apoyado en la IA, aunque admitió que un conocido al que contrató para editar la versión autoeditada de la obra sí lo hizo. “Esta controversia ha cambiado mi vida de muchas maneras, mi salud mental está por los suelos y mi nombre ha quedado mancillado por algo que ni siquiera hice personalmente”, afirmó.Licenciado en Periodismo por la UAB. Redactor de La Vanguardia desde 1996. Ha cubierto las áreas de Política, Deportes y Comunicación. Especializado en tecnología. Autor del libro 'Bicicletas para la mente' (Península)