Los ex empleados de OpenAI están pidiendo a los principales funcionarios encargados de hacer cumplir la ley en California y Delaware que impidan que la empresa transfiera el control de su tecnología de inteligencia artificial de una organización benéfica sin fines de lucro a una empresa con fines de lucro.
Les preocupa lo que sucederá si el fabricante de ChatGPT cumple su ambición de construir una IA que supere a los humanos, pero ya no rinde cuentas ante su misión pública de proteger esa tecnología de causar daños graves.
«En última instancia, me preocupa quién posee y controla esta tecnología una vez creada», dijo Page Hedley, ex asesor de políticas y ética de OpenAI, en una entrevista con The Associated Press.
Con el respaldo de tres ganadores del Premio Nobel y otros defensores y expertos, Hedley y otros nueve ex trabajadores de OpenAI enviaron una carta esta semana a los dos fiscales generales estatales.
La coalición solicita al fiscal general de California, Rob Bonta, y a la fiscal general de Delaware, Kathy Jennings, ambos demócratas, que ejerzan su autoridad para proteger el propósito benéfico de OpenAI y bloquear su reestructuración prevista. OpenAI está constituida en Delaware y opera desde San Francisco.
OpenAI respondió que «cualquier cambio en nuestra estructura actual serviría para garantizar que el público en general pueda beneficiarse de la IA». Añadió que su organización con fines de lucro será una corporación de beneficio público, similar a otros laboratorios de IA como Anthropic y xAI del multimillonario tecnológico Elon Musk, con la diferencia de que OpenAI conservará una rama sin fines de lucro.
“Esta estructura seguirá garantizando que, a medida que la organización con fines de lucro tenga éxito y crezca, también lo haga la organización sin fines de lucro, lo que nos permitirá lograr la misión”, afirmó la empresa en un comunicado.
Jennings declaró el otoño pasado que «revisaría cualquier transacción de este tipo para garantizar la protección adecuada de los intereses públicos». La oficina de Bonta solicitó más información a OpenAI a finales del año pasado, pero ha dicho que no puede hacer comentarios, ni siquiera para confirmar o desmentir si está investigando.
Los cofundadores de OpenAI, incluyendo a su actual CEO, Sam Altman, y a Musk, la fundaron inicialmente como un laboratorio de investigación sin fines de lucro con la misión de desarrollar de forma segura lo que se conoce como inteligencia artificial general (IAG ) para beneficio de la humanidad. Casi una década después, OpenAI ha reportado un valor de mercado de 300 000 millones de dólares y cuenta con 400 millones de usuarios semanales de ChatGPT, su producto estrella.
OpenAI ya cuenta con una filial con fines de lucro, pero enfrenta varios desafíos para transformar su estructura de gobernanza principal. Uno de ellos es una demanda de Musk , quien acusa a la empresa y a Altman de traicionar los principios fundadores que llevaron al director ejecutivo de Tesla a invertir en la organización benéfica.
Si bien algunos de los firmantes de la carta de esta semana apoyan la demanda de Musk, Hedley dijo que otros son «comprensiblemente cínicos» porque Musk también dirige su propia empresa rival de inteligencia artificial.
Entre los firmantes se incluyen dos economistas ganadores del Nobel, Oliver Hart y Joseph Stiglitz, así como los pioneros de la IA y científicos informáticos Geoffrey Hinton , que ganó el Premio Nobel de Física el año pasado , y Stuart Russell.
“Me gusta la misión de OpenAI de ‘garantizar que la inteligencia artificial general beneficie a toda la humanidad’, y me gustaría que la ejecutaran en lugar de enriquecer a sus inversores”, declaró Hinton el miércoles. “Me alegra que se esté haciendo un esfuerzo para que OpenAI cumpla su misión sin involucrar a Elon Musk”.
Los conflictos sobre el propósito de OpenAI han estado latentes durante mucho tiempo en el instituto de San Francisco, lo que contribuyó a la renuncia de Musk en 2018, la breve salida de Altman en 2023 y otras salidas de alto perfil.
Hedley, abogado de profesión, trabajó para OpenAI en 2017 y 2018, cuando la organización sin fines de lucro aún buscaba las mejores maneras de gestionar la tecnología que quería desarrollar. En 2023, Altman afirmó que la IA avanzada era prometedora, pero también advertía de riesgos extraordinarios, desde accidentes graves hasta disrupciones sociales.
Sin embargo, en los últimos años, Hedley dijo que observó con preocupación cómo OpenAI, impulsado por el éxito de ChatGPT, estaba recortando cada vez más los costos en pruebas de seguridad y apresurándose a lanzar nuevos productos para adelantarse a sus competidores comerciales.
“El costo de esas decisiones seguirá aumentando a medida que la tecnología se vuelva más poderosa”, dijo. “Creo que en la nueva estructura que OpenAI busca, los incentivos para apresurarse a tomar esas decisiones aumentarán y ya no habrá nadie que pueda decirles que no lo hagan, que les diga que esto no está bien”.
El ingeniero de software Anish Tondwalkar, ex miembro del equipo técnico de OpenAI hasta el año pasado, dijo que una garantía importante en el estatuto sin fines de lucro de OpenAI es una «cláusula de parada y asistencia» que ordena a OpenAI retirarse y ayudar si otra organización se acerca al logro de una IA mejor que la humana.
«Si se permite que OpenAI se convierta en una organización con fines de lucro, estas garantías y el deber de OpenAI hacia el público pueden desaparecer de la noche a la mañana», dijo Tondwalkar en un comunicado el miércoles.
Otro ex trabajador que firmó la carta lo expresa más claramente.
“OpenAI podría algún día desarrollar tecnología que podría llevarnos a la muerte a todos”, afirmó Nisan Stiennon, ingeniero de IA que trabajó en OpenAI de 2018 a 2020. “Es un mérito de OpenAI estar controlada por una organización sin fines de lucro con un deber hacia la humanidad. Este deber impide ceder ese control”.