_
_
_
_
El Foco
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

El caso Altman: cuando la ética pierde la partida

Lo ocurrido en OpenAI demuestra lo difícil que es mantener los principios cuando marcan límites. Lo llaman ‘cambios de punto de vista’, pero es falta de palabra

Sam Altman OpenAI
El CEO de OpenAI, Sam Altman, durante una presentación corporativa el pasado 6 de noviembre en San Francisco.Justin Sullivan (Getty Images)

Qué es más importante, ¿dejar avanzar a los científicos con los máximos grados de libertad y ser los primeros en crear una superinterligencia? ¿O gobernar la seguridad y el interés de las personas por encima de todo?

Sam Altman fundó OpenAI en 2015 con el propósito de “hacer avanzar la IA de la forma en que beneficie a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar beneficios económicos”. Fue concebida como una organización sin ánimo de lucro, financiada por Elon Musk, Peter Thiel y Reid Hoffman (fundadores de Tesla, PayPal y LinkedIn, respectivamente) y con un Consejo de Administración cuya misión era velar por este principio de manera seria y a conciencia. Además, se creó una fundación, que es donde residen las patentes y la acción comercial de OpenAI, quedando así no solo fuera del Consejo, sino que sus decisiones están sometidas a él. Un modelo de gobernanza muy interesante basado en el concepto de separación de poderes.

Pero Altman es ya un emprendedor pura sangre, tiene espíritu ganador y no quiere renunciar (nunca ha querido) a ser cabeza de todo lo que emprende. Lo que frene su capacidad de avanzar se lo saltará o lo derrumbará, pero no se detendrá. Y el mundo avanza muy deprisa, de manera poco predecible, y aún más la tecnología.

En 2019, apenas cuatro años después de su fundación, OpenAI decidió reformular en parte su propósito, añadiéndole el concepto de “modelo de beneficios limitados”. Altman fue nombrado director ejecutivo, y Musk salió del proyecto. Evidentemente, en aquel momento Altman ya estaba sintiendo la constricción del propósito inicial sobre la velocidad a la que conseguir dinero, que en cantidades mayores permitiría a la compañía acelerar las ideas y desarrollos tecnológicos y convertirse en líder mundial de la IA generativa. Poder, necesidades económicas y ética (beneficio social del bien común) son los tres principios sobre los que OpenAI se mueve. Y si hay que sacrificar alguno, que sea el tercero, que es el mejor aguanta un discurso más difuminado.

En el marco de esta presión, el pasado 17 de noviembre el Consejo emitió una nota oficial exponiendo un llamativo motivo por el que decide quitar del cargo de CEO a Altman, aludiendo a que este “no es consistentemente sincero en sus comunicaciones”. Junto con él, también sale el presidente, Greg Brockman.

El detonante parece ser una carta que un grupo de ingenieros de OpenAI escribieron al Consejo de Administració, comentando un “increíble y poderoso descubrimiento que estamos desarrollando y que puede amenazar seriamente a la humanidad”. En la carta se advierte de los riesgos de la implementación del proyecto Q* (Q star), que antepone la comercialización de esta tecnología a sus posibles consecuencias, y en la que se propone acompasar mejor el estudio y el conocimiento de los efectos que puede tener antes de lanzarla al mercado.

Esta carta no solo toca de lleno al Consejo y al propósito vital de la existencia de OpenAI, sino que, entre líneas, les hace ver que los principios que han marcado su camino ya no son un freno para las ambiciones personales de su CEO. Ante esta ruptura del valor principal y fundacional de OpenAI, el Consejo considera de enorme gravedad la actuación de Altman y su falta de transparencia. Una confianza rota que solo puede derivar en destitución.

Microsoft, socio de referencia de OpenAI, se entera de todo esto cuando las decisiones ya están tomadas. El modelo de gobierno que los fundadores diseñaron era ese: la junta vela por el propósito, la fundación por el negocio, y primero va el propósito. Pero el poder y la estrategia de posicionamiento de Microsoft están tan vinculados a OpenAI que ya no hay capacidad de operar a las niñas siamesas para separarlas. Así que la compañía intenta traerse a OpenAI dentro de casa. Casi 800 empleados de OpenAI deciden irse con Altman a Microsoft, las acciones caen y el mercado tecnológico se lleva las manos a la cabeza.

Las grandes empresas como Google, Apple o Meta contratan a profesionales para tener boards de ética visibles y conocidos, pero cuando llega el momento de poner en la balanza ética vs. beneficios, el peso suele inclinarse hacia el lado económico. Eso es lo que ha pasado en OpenAI. Y es muy parecido a lo que pasó con Ben & Jerry’s, en el sector de helados premium. Es complicado mantener los valores sobre lo que sustenta el propósito cuando el contrapoder es la fuerza económica o el poder. La flexibilidad, la adaptabilidad o el relativismo, como queramos llamarlo, es el camino por el que se justifican decisiones que van en contra de los valores, la ética y el bien común.

Ante tanto revuelo, la Junta de OpenAI vio que había perdido todos los apoyos y decide dimitir. Altman ha vuelto, pero ya nada será lo mismo. Ya pasó en Twitter, Disney, Apple, etc.: cuando los CEO se van y vuelven con otras condiciones, las empresas viran hacia una conceptualización totalmente distinta a como fueron concebidas. Pierden el alma. Es el Juego de Tronos de las corporaciones que hoy mueven el mundo.

Qué difícil es mantener tus principios cuando estos no permiten ganar todo lo que podrías ganar…. Aceptamos que son cambios de punto de vista, cuando ciertamente es falta de palabra, falta de ética. La promesa es lo único que hace que alguien haga ver el futuro a los demás y querer alcanzarlo juntos. Pero las promesas ya no existen. ¿Gobernanza por valores? Sí, por favor.

Luis Fernando Rodríguez es CEO de Watch&Act

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_