Logo Funcas

Mensajes del lío de OpenAI

Comparte esta entrada

Menudas semanas llevan Sam Altman y compañía. El fundador de ChatGPT y máximo ejecutivo de la empresa que lo gestiona, OpenAI, fue despedido el pasado 17 de noviembre por un fuerte desencuentro con su Consejo de Administración, acusado de falta de transparencia en sus declaraciones públicas sobre algunos proyectos de la empresa que maneja probablemente una de las principales herramientas tecnológicas del presente y del futuro. Tras un escarceo que casi le lleva a entrar en Microsoft, principal accionista de OpenAI, cinco días más tarde todo volvió al punto de partida y Sam Altman finalmente recuperó su puesto en ChatGPT. Se cambia, además, completamente al Consejo de OpenAI, que deberá, en primer lugar, resolver los problemas de gobernanza de la compañía. También reforzar su misión principal: asegurar que la inteligencia artificial (IA) sea segura para todos. No se puede olvidar que el Consejo de OpenAI no es uno al uso. No son los accionistas los que se sientan en el mismo, sino un conjunto de notables que supervisa el rumbo de la empresa así como las cuestiones de negocio y cómo hacerlas compatibles con la seguridad. La sensación de que OpenAI quería abrir demasiadas líneas de negocio a la vez —potencialmente arriesgando seguridad— generó el caos.

La estructura organizativa actual de OpenAI refleja estos problemas y conflictos de interés. Cuando se creó en 2015, se hizo sin ánimo de lucro, de ahí la peculiaridad de su Consejo de Administración, que vigila el progreso de una IA general que pudiera superar las capacidades de los seres humanos con todos sus peligros. Sin embargo, al tiempo, se dieron cuenta que, para poder desarrollar adecuadamente la tecnología, hacían falta inversiones voluminosas y para ello crearon una filial —esta sí, con ánimo de lucro— en la que Microsoft tomó un 49 por cien del capital (13 millardos de dólares). Ahí comenzó el conflicto de intereses (seguridad versus negocio). Esto será un problema siempre cuando no se adopta una visión de vigilancia adecuada, que no impida los avances en IA —y por tanto las mejoras aparejadas en productividad y aumento del bienestar—, pero a la vez, no exacerbe los riesgos que pueden quebrar muchas de las garantías en protección de datos y seguridad que nos hemos dado como sociedades avanzadas. Llevado al extremo, situaciones próximas a la ciencia ficción, con máquinas y robots superando el mando del control humano.

Por último, OpenAI exhibe el patrón de libre empresa y pocas normas de su país de origen (EEUU), con un enfoque de supervisión, próximo a la autorregulación, donde el Consejo de Administración no tiene el lucro como objetivo principal y, además, está compuesto por expertos o notables “buenos” que vigilan ChatGPT. Es un modelo excesivamente ingenuo y laxo en un mundo tan complejo como el actual, más aún ante la enorme potencia de la herramienta. No funcionará. Por ello, para evitar males mayores, la nueva IA necesita una regulación clara y muy definida, también en Estados Unidos aunque no les guste, que equilibre innovación y seguridad. 

Este artículo se publicó originalmente en el diario La Vanguardia.

Comparte esta entrada