Pausa de la IA: ¿realmente tenemos que firmarla?

por Yannick Meneceur | www.actu-juridique.fr | 30/3/23

En una carta abierta publicada el 28 de marzo, un millar de expertos, incluido Elon Musk, el jefe de Tesla y Twitter, exigen la suspensión durante seis meses de las investigaciones sobre IA en nombre de los peligros que representa para la humanidad. ¡Atención! advierte Yannick Meneceur, magistrado sobre disponibilidad y profesor asociado de la Universidad de Estrasburgo. Esta preocupación virtuosa bien podría tener resortes no reconocidos. 

Moratoria de la IA: ¿realmente tenemos que firmarla?
(Foto: AdobeStock/William)

Más de 1.000 investigadores, industriales, intelectuales, representantes de la sociedad civil y ciudadanos de a pie acaban de movilizarse para denunciar el riesgo de desplegar grandes modelos de “IA” como el GPT de OpenAI. En su carta abierta pide una moratoria de al menos 6 meses, siguiendo el modelo de lo logrado en otros campos tecnológicos como la clonación humana, para tomarse el tiempo de diseñar sistemas mejor controlados y supervisados ​​[ 1 ] .

Las reacciones no faltaron tras esta convocatoria, las firmas conjuntas de Elon Musk, Stuart Russel, Yoshua Bengio, Steve Wozniak, Yuval Noah Harari bajo los auspicios del Future of Life Institute han dado un eco particular a esta iniciativa. ¿Qué pensar?

IA, una “abyección civilizatoria”

Éric Sadin, ensayista y filósofo conocido por sus fuertes posiciones sobre la “IA”, es directo: para él, lo grotesco de estas personas no tendría límite. Le parece urgente prohibir “esta abyección civilizatoria que sólo pretende generar inmensas ganancias” [2] . Philippe Besse, investigador emérito del INSA, cree por su parte que si los argumentos parecen abusivos, el fondo sería justo, dado el despilfarro de recursos y la ausencia de control democrático [3] . Otros, en otro registro, consideran imposible ralentizar el ritmo de investigación o prohibir un gran número de aplicaciones de “IA”.

Difícil de navegar para los legos en debates más polarizados que nunca.

El ser humano pronto obsoleto según la FLI

Tratemos primero de ubicar de dónde hablan los principales firmantes: el Instituto Futuro de la Vida (FLI), que se distinguió con la publicación de los “23 principios de Asilomar”, que ya se supone que enmarcan el desarrollo de la “IA por medios no vinculantes”. principios [4]. El objetivo del Instituto es desarrollar visiones optimistas del futuro y prevenir los riesgos relacionados, en particular, provenientes de una “IA fuerte” (es decir, comparable o superior a los humanos). Este instituto se presenta también como vehículo de la controvertida filosofía del “largo plazo”, que consiste en imaginar el alcance de las acciones humanas en un futuro lejano y mitigar los riesgos ahora, aunque signifique sacrificar el presente. Algunas figuras de este movimiento también abogan por la acumulación de riqueza para influir en las políticas públicas [5]. Por lo tanto, no sorprende encontrar hoy este llamado bajo la égida de la FLI, ya que hace eco de una línea fraguada durante años: la “IA” tendría tales potencialidades que podría superar y dejar obsoleto al humano. Pero sobre todo, no hay que renunciar a ella porque el potencial sería extraordinario.

El objetivo ulterior:
reforzar la creencia en los poderes de la IA

Situando a los actores, podemos medir mejor lo escandaloso de esta carta abierta: el aparente retroceso que reclama la intervención de regulaciones estrictas es en realidad solo una oportunidad para reforzar esta representación totalmente errónea, antropomórfica y solucionista que las generaciones actuales de ” AI” tendría tales capacidades que nuestra sociedad estaría potencialmente en peligro. Para reformularlo, esta convocatoria refuerza vigorosamente la idea (muy útil para el negocio de la “IA”) de que estos algoritmos tendrían desempeños exponenciales, mejorando siempre con más datos y sistemas más complejos.

Pero no. Lo que pone en peligro a nuestra sociedad es la creencia de que los enfoques estadísticos sofisticados podrían imitar, por algún milagro naturalista, el funcionamiento del cerebro humano. Lo que pone en peligro a nuestra sociedad es creer que un loro escupiendo una síntesis estadística de un corpus reproduce “chispas de inteligencia [6]  ” o que el aprendizaje automático representa los mismos problemas que la biomedicina. No estamos jugando aquí con organoides y neuronas humanas. Lo que concretamente pone en peligro a nuestra sociedad es una visión meramente técnica del progreso.

Bomberos incendiarios

Esta carta abierta también es impactante por otro motivo: la inevitable sensación de que estamos frente a bomberos pirómanos. Después de años de abogar por enfoques “éticos” para aplazar las regulaciones vinculantes por el bien de su negocio, ahora los mismos jugadores quieren apagar el fuego que ellos iniciaron, pidiendo ayuda a los reguladores.

Por lo tanto, la sinceridad de sus palabras sería mucho más evidente si algunos de estos firmantes no fueran los “perturbados” por OpenAI. Estos últimos supieron, con audacia y gran ingeniería, aprovechar una imagen relativamente neutra para avanzar donde Meta, Google y otros solo podían atraer la ira de la comunidad ante el más mínimo desvío. De hecho, las “alucinaciones” de ChatGPT han sido toleradas, aunque probablemente estemos ante un límite intrínseco del enfoque.

Entonces, aquí hay quizás una única y buena razón para no seguir lo que (también) es un truco de marketing para buscar ralentizar el ciclo de producción de OpenAI. Si se van a desarrollar normas vinculantes, como es el caso en Europa, es exclusivamente sobre bases neutrales e inalienables: a saber, los derechos humanos, los principios democráticos y el estado de derecho. Y no para alimentar las fantasías de una sociedad que sería más próspera con algoritmos en todo nivel de nuestra sociedad. Finalmente, no todos los algoritmos… solo los que vende la competencia.

FUENTES

[1] Pause Giant AI Experiments: An Open Letter , consultado el 29 de marzo de 2023.
[2] Publicación de Twitter del 29 de marzo de 2023 , visitada el 29 de marzo de 2023.
[3] Publicación de LinkedIn del 29 de marzo de 2023 , visitada el 29 de marzo de 2023.
[4] Accesible en: https://futureoflife.org/open-letter/ai-principles/ , consultado el 29 de marzo de 2023
[5] C. Xiang, The Open Letter to Stop ‘Dangerous’ AI Race Is a Huge Mess, Vice, 29 de marzo de 2023, consultado el 30 de marzo de 2023
[6] S. Bubeck et al., Sparks of Artificial General Intelligence: Early experiments with GPT-4, arXiv, 22 de marzo de 2023 , consultado el 23 de marzo de 2023