La realidad es siempre más desconcertante que las pugnas intelectuales que la preceden.
La nueva versión de ChatGPT deja perplejos a los más recalcitrantes oponentes a la IA. No es para menos. Por favor, entreténgase en hacer preguntas de leyes, de ciencia, o a pedir redactados al estilo cervantino sobre un partido de fútbol entre Argentina y Francia. No tiene desperdicio.
Vale la pena argumentar de forma más pausada tres ideas que deberíamos considerar a la hora de enjuiciar nuestra relación presente y futura con la IA.
_La primera consideración es dura: el avance de la IA es inexorable. No importa si nos gustan o no los teléfonos móviles, todos hemos terminado teniendo uno, o más de uno. Y usamos GPS para desplazarnos, láseres para comunicarnos, internet para socializar o resonancias magnéticas para explorar el interior de nuestro cuerpo. Cada avance tecnológico es aceptado a regañadientes por las generaciones mayores, pero es abrazado de forma entusiasta por las más jóvenes porque se sienten partícipes de inventar el futuro.
La IA seguirá avanzando de forma inapelable, ajena a opiniones desinformadas, libre de sesgos humanos narcisistas. La teoría de la información fue creada en los años treinta del siglo pasado, los transistores que usamos en los ordenadores son del año 1946, el entrenamiento de redes neuronales es de los 80, las redes profundas son del siglo XXI. La ciencia está en su infancia. Sí, si es posible replicar la inteligencia humana, lo estamos logrando a una velocidad de vértigo comparada con la evolución de nuestra especie. Tal vez solo somos el eslabón necesario para crear una IA realmente profunda.
_La segunda idea tiene implicación inmediata: la IA ya supera ampliamente a los humanos en muchas de las tareas que realizan. De la misma forma que un ordenador lleva a cabo enormes cálculos de forma vertiginosa y sin error, la IA es capaz de tomar decisiones basadas en entrenamiento profundo, con más acierto que cualquiera de nosotros. Seamos sinceros: los humanos somos imperfectos, menos productivos, más costosos, tenemos demasiado ego. Poco a poco, el número de tareas completadas de forma satisfactoria por la IA crece. Y seguirá creciendo. A día de hoy, chatAI puede redactar resúmenes, puede crear código de programación, puede imitar estilos literarios, puede responder en idiomas diferentes (se lo he preguntado y me dice que habla 42 idiomas, incluyendo el Uigur y el Mongol, pero se excusa porque en algunas lenguas le falta soltura). Es obvio que muchos oficios pasarán a ser realizados por estos nuevos algoritmos. El futuro que se nos viene encima es el de humanos viejos, con poco trabajo y mucho entretenimiento banal para pasar el día.
_La tercera consideración es una pregunta directa: ¿qué ética sigue la IA? Está claro que ChatGPT puede escribir los trabajos del colegio de un adolescente, puede proponer una argumentación judicial, puede redactar una noticia. En todos estos casos, ChatGPT suplanta a una persona sea por una motivación razonable o, por el contrario, perniciosa. ¿Qué nota recibe el estudiante? ¿Qué sesgo tiene la decisión judicial? ¿Es la noticia real o falsa? No existe una forma sencilla de defender a los humanos frente al uso malicioso de la IA. La necesidad de alfabetizar a nuestra sociedad en IA es imperiosa.
Legislar la IA no es sencillo. Un problema inmediato es hallar el límite correcto entre el desarrollo de la IA y su impacto sobre los humanos. Si se prohibe todo, aquellos países menos garantistas en libertades individuales podrán hacer uso ilimitado de la IA y liderar la economía futura. Por el contrario, si se permite todo, tendremos una sociedad deshumanizada e inhabitable. Aquí subyace el problema de la cabal armonización de legislaciones en IA entre países, un sueño muy difícil de realizar. El equilibrio que la UE busca desde hace años consiste en dar vía libre a la investigación y desarrollo de los principios de la IA avanzada y, a la vez, monitorizar severamente las aplicaciones en casos críticos, aquellos que pueden afectar muy negativamente a muchas personas.
El coralario de las argumentaciones anteriores es que la cuestión a debatir no es si la IA será más o menos potente, si nos superará ahora o en unos años. Lo está haciendo, lo hará de forma brutal. La verdadera pregunta es si seremos capaces de legislar correctamente el uso ético de la IA avanzada.
No se trata de una propuesta retórica, sino de llamar a las instituciones pertinentes a evitar la dejación de sus funciones.
José Ignacio Latorre es Director del Centre for Qauntum Technologies, en Singapur, y Chief Researcher del Technology Innovation Institute, en Abu Dhabi. También es el autor del libro Ética para máquinas (Ariel) y de la obra de teatro Eliza, que tratan la relación entre humanos en la era de la inteligencia artificial.
No hay comentarios:
Publicar un comentario