Alto el Fuego

Reflexiones / Arte es Ética

Los principales desarrolladores de IA piden una “pausa” en una carta abierta. Entre sus firmantes se cuentan Elon Musk (cofundador, junto a Sam Altman y otros, de OpenAI) y Emad Mostaque (CEO de StabilitiAI) desarrollador del software Stable Diffusion. Bastante tarde pretenden posar de “moderados” e inclinados a la regulación de la IA generativa.

Entendemos que lo que buscan en realidad es detener a OpenAI en la toma de control de esta renovada “carrera armamentística” global. Piden un alto el fuego, para ganar tiempo y atender a las demandas judiciales que tienen en contra, mientras apuntan a supuestos super desarrollos, futuros y peligrosos, de la IA. Lo que es un intento por lavarse las manos de los desarrollos igualmente cuestionables de los que son impulsores y dueños.

Sin embargo es destacable que a pesar de lo fingido del escrito o del verdadero motivo de solicitar la detención de la IA, los firmantes solicitan regulación gubernamental y eso es clave para toda la sociedad.

A continuación te acercamos un resumen del artículo publicado por LA VANGUARDIA (España).

Expertos de la inteligencia artificial y ejecutivos del sector, entre ellos Elon Musk, han pedido una pausa “inmediata” de seis meses en el avance de los sistemas de IA más potentes que GPT-4 por posibles riesgos para la sociedad y la humanidad, según han firmado en una carta abierta publicada esta semana. Entre los efectos nocivos se cita el avance de la desinformación, la destrucción de empleo e incluso el riesgo de “pérdida de control de la civilización“.

“Los sistemas de inteligencia artificial potentes deben desarrollarse solamente una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, se lee en la carta. En ella se detallan riesgos potenciales para la sociedad y la civilización de los sistemas de IA, como disrupciones económicas y políticas, y pide a los desarrolladores que trabajen con los legisladores y autoridades reguladoras en materia de gobernanza. […] “Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido”.

Expertos y ejecutivos de la IA piden pausar su desarrollo por los peligros que puede generar


Te acercamos ahora un resumen de un artículo complementario de Michael Mcloughlin salido hoy en EL CONFIDENCIAL (España) que consideramos clave para entender el momento actual y la necesidad de regulación que la profesora Carissa Véliz señala.

Open AI, la fundación detrás de ChatGPT, el bot conversacional lanzado a finales del pasado año […] ha empujado a todos los gigantes del negocio a iniciar una alocada carrera por dominar esta revolución, una competición en la que los anuncios ya no suceden en semanas, sino en días o incluso horas.

Open AI ha dado mucho de que hablar después de que publicase una investigación sobre las profesiones en peligro de extinción por culpa de las inteligencias artificiales generativas. “Los resultados indican que aproximadamente el 80% de la mano de obra estadounidense podría ver afectado al menos el 10% de sus tareas laborales por la introducción de las GPT”, aseguran los autores. “Alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas”. Para evitar ser atropellado por esta revolución, laboralmente hablando, el documento señala “el pensamiento crítico” y “las ciencias” como factores clave.

El informe no tardó en hacerse viral, pero también suscitó críticas por algunas carencias y falta de rigor. Incluso hay quien ve todos estos movimientos como parte de una campaña de marketing que lo que pretende es que Open AI siga marcando la agenda.

El lanzamiento de GPT-4 , al contrario que iteraciones anteriores, se ha hecho de forma opaca, sin dar detalles sobre el tamaño del modelo, la arquitectura, el entrenamiento, la construcción de los datos para alimentarlo o la capacidad de cómputo.  […] “La transparencia en este caso puede ser un arma de doble filo. Estas herramientas son muy poderosas y ponerlas al alcance de todo el mundo puede suponer un peligro“, opina a este respecto Carissa Véliz, profesora de Ética Digital de la Universidad de Oxford y autora de Privacidad es poder, un ensayo elegido por The Economist como uno de los libros del año. “La energía nuclear, como contó con la participación gubernamental en su creación, se desarrolló con estándares y controles. Eso mismo deberíamos tener en este caso. No hablo de desvelar complementamente el desarrollo, hablo de que haya una transparencia en la esfera pública, con expertos que velen por el bien común y controlen aspectos del diseño e implementación”

Cómo OpenAI juega con el miedo para seguir dominando la IA

Carissa Véliz, filósofa y profesora de Ética Digital en Oxford. (Cedida)

Véliz fue especialmente crítica con las declaraciones de Altman a ABC News. Considera que existe una desconexión entre lo que dice y hace la empresa. “Es difícil de entender decir que estamos preocupados por lo que hemos creado pero soltarlo y dar acceso al público general, sin haber contado con legisladores, expertos en ética y otras figuras”, crítica.

La experta destaca el proceder de Google. La compañía, que lleva una década investigando la materia, ha mantenido una postura mucho más conservadora que Microsoft y OpenAI. Es cierto que este tipo de tecnologías puede tener mayor impacto en su negocio, pero también es cierto que la multinacional de Sundar Pichai impuso una estricta normativa que las inteligencias artificiales debían cumplir antes de ponerse en circulación.

“Estas empresas más grandes suelen estar en el punto de mira de críticos y reguladores. Por eso no han lanzado sus chatbots antes, por preocupaciones evidentes. Sin embargo, Open AI no estaba en el radar y ha podido poner una tecnología, con muchas implicaciones para la sociedad, en marcha mucho más rápido. Eso demuestra que la democracia no está al mando de estos avances, sino empresas privadas que muchas veces desarrollan sus productos sin pensar en el aspecto ético, que se suele dejar siempre para más tarde”. En este sentido, también critica el ocultismo que ha acompañado a GPT-4, ya que no se conoce, entre otras muchas cosas, “cómo se ha trabajado para minimizar los riesgos”.

Cómo OpenAI juega con el miedo para seguir dominando la IA

Te dejamos aquí un link a una conferencia de la profesora Carissa Véliz, para entender el mundo que se está construyendo y los peligros crecientes para la democracia.