Una IA a la altura de Asimov

NEWSLETTER 'ARTIFICIAL'

Iniciativa de un pionero de la inteligencia artificial para mitigar los principales riesgos que tiene la tecnología

Yoshua Bengio propone controlar el comportamiento de los modelos de IA de inicio

Yoshua Bengio propone controlar el comportamiento de los modelos de IA de inicio 

Reve

Isaac Asimov introdujo por primera vez en 1942 en una de sus obras las tres leyes de la robótica, un conjunto de reglas de ficción que se entrelazan en nuestro imaginario con el desarrollo de la tecnología. (Primera: Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño; Segunda: Un robot debe obedecer las órdenes que le den los seres humanos, salvo que dichas órdenes entren en conflicto con la Primera Ley; y Tercera: Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley). Con el paso del tiempo, mientras su obra evolucionaba y en ella los autómatas regían comunidades humanas, introdujo una ley previa a las tres anteriores, conocida en ordinal como Ley Cero (Zeroth): Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño alguno. Uno de los pioneros de la inteligencia artificial quiere aplicárselo ahora a todas las IAs.

Con un guiño a esa Ley Cero de Asimov, Yoshua Bengio, uno de los padrinos de la inteligencia artificial junto a Geoff Hinton y Yann LeCun, ha fundado una organización de investigación sin ánimo de lucro llamada LawZero (guiño a las leyes de la robótica), que promoverá un enfoque alternativo al desarrollo de sistemas de IA de vanguardia, con el objetivo de mitigar los riesgos potenciales de esta tecnología. Esta iniciativa no es un brindis al sol de alguien bienintencionado. La nueva entidad ha recibido 30 millones de dólares de una organización filántropica en la que participan el ex consejero delegado de Google, Eric Schmidt, y del cofundador de Skype Jaan Tallinn. El objetivo es crear una solución técnica llamada Scientist AI (IA científica) que actúe como una barrera de seguridad para los agentes de IA.

Bengio se propone que su solución actúe como “un científico idealizado y desinteresado” que aprende a comprender el mundo en lugar de actuar dentro del mismo. Scientist AI podría utilizarse con los principales agentes de IA y supervisarlos para evitar problemas de seguridad. Para eso, ya se ha puesto en o, con algunos de los principales promotores de las IAs más avanzadas, como OpenAI, Google, Anthropic y otros, así como del gobierno federal en Washington. “No sabemos cómo diseñar estas IA tan potentes para que se limiten a seguir nuestras instrucciones —afirma Bengio—. Si no lo averiguamos a tiempo, lo que podría llevar años, correremos riesgos terribles”.

Robby, el robot de la película Planeta prohibido, se cortocircuita si le piden que dañe a un ser humano

Robby, el robot de la película Planeta prohibido, se cortocircuita si le piden que dañe a un ser humano 

MGM

En medio de una guerra comercial y tecnológica con China, la precaución que reclama Bengio puede parecer un grito en el desierto, pero las propias compañías que desarrollan los agentes de IA más avanzados saben que tienen que colocar guardarraíles para que no se les descontrolen. El pionero de la IA ha explicado que la solución que aplican ahora mismo estas grandes compañías es utilizar un fragmento de código en el algoritmo llamado “monitor” que hace de guardia de seguridad. El problema es que esta contramedida está diseñada de la misma forma que el sistema que pretende controlar, por lo que, desde su punto de vista, el contro del comportamiento de la IA será inadecuado. “No se le dan las llaves de la prisión a un criminal —observa—. Queremos que una IA fiable se encargue de controlarla”.

Vale la pena escuchar las reflexiones de este pionero de la IA, responsable de avances como el aprendizaje profundo. LawZero, explica, “trabaja para resolver el problema científico de cómo diseñar una IA que sea segura”. “Actualmente —indica—, la IA se desarrolla para maximizar los beneficios, y unas IA muy potentes y con muchos conocimientos podrían ayudar a personas malintencionadas con desinformación, armas biológicas o ciberataques. Si perdemos el control de unas IA rebeldes y superinteligentes, podrían causar un gran daño a la humanidad”. Así que quiere construir una IA que sea segura, fiable, así como “honesta y humilde”.

“A menudo me preguntan si soy optimista o pesimista sobre el futuro de la IA, y mi respuesta siempre es que no importa. Lo único que importa es que cada uno de nosotros puede hacer algo para avanzar hacia un mundo mejor”, concluye Yoshua Bengio. No todo el mundo tiene esas buenas intenciones. Esta semana, OpenAI ha desmantelado diez operaciones de influencia encubierta que usaban sus modelos de lenguaje. Varios de los intentos procedían de China, con el uso de ChatGPT para publicar comentarios y artículos en redes como TikTok, X, Facebook o Reddit. Esos contenidos intentaban influir en la opinión pública sobre la situación política en Estados Unidos. Además de los intentos chinos, otras campañas procedían de Rusia, Irán, Corea del Norte, Camboya y Filipinas.

Bengio quiere maniatar a los modelos de IA para evitar problemas de falta de control

Bengio quiere maniatar a los modelos de IA para evitar problemas de falta de control 

Reve

Con la IA, la paradoja siempre es la misma que con el resto de tecnología: el buen o el mal uso de una herramienta determina la forma en que nos resulta útil. Ayudar a Bengio a poner su herramienta en marcha parece una buena idea. Sólo falta que haya un buen número de personas con capacidad económica y poder para empujar la iniciativa. Al final, la creencia en la buena fe de quienes desarrollan la tecnología más poderosa se convierte en un factor decisivo para el futuro. “Nadie quiere crear un monstruo”, concluye Bengio sobre la inteligencia artificial. ¿Seguro?

· Mirar los pies, prevenir un infarto. Una startup británica, Heartfelt Technologies ha desarrollado un escáner de pared con inteligencia artificial que monitoriza la hinchazón de los tobillos y predice con precisión una futura insuficiencia cardíaca del paciente hasta 13 días antes de que ocurra. El escáner captura 1.800 imágenes por minuto de los pies y tobillos de los pacientes. La IA estudia las imágenes para medir la acumulación de líquido que indica un empeoramiento de las afecciones cardíacas. En los ensayos clínicos en cinco centros del Servicio Nacional de Salud (NHS) del Reino Unido, el escáner predijo cinco de las seis hospitalizaciones que se produjeron casi con dos semanas de antelación.

· Problema de privacidad para OpenAI. La compañía que lidera Sam Altman, OpenAI, ha anunciado que recurrirá una orden judicial ligada a la demanda que le interpuso en los tribunales el diario The New York Times por posible uso sin permiso de sus artículos periodísticos. La orden obliga a OpenAI a conservar todas las conversaciones de sus s en ChatGPT, incluidos los chats eliminados. El diario quiere evitar que se borren posibles pruebas, lo que afecta a todo lo que ponen en su chatbot de IA sus cientos de millones de s. Altman considera que debe existir un privilegio de confidencialidad similar al que hay entre un médico y un paciente.

Lee también

· Amazon prueba robots que lleven los paquetes. La web de tecnología The information ha publicado que Amazon está desarrollando una inteligencia artificial para robots humanoides que afrontarían el llamado “reparto de última milla”, el que ahora cubren empleados que entregan los paquetes en casa. Además de ese software, señala este medio, el gigante de las ventas online está terminando de construir un “parque humanoide” en San Francisco para hacer pruebas con robots.

Mostrar comentarios
Cargando siguiente contenido...