Inteligencia Artificial y la pausa de Elon Musk Maciel Campos Director de la Escuela de Publicidad y Relaciones Públicas Universidad de Las Américas

A George Orwell se le atribuye el viejo adagio “la historia la escriben los vencedores”. No debiera extrañar entonces que, en algún rincón escondido y obscuro de los reservorios digitales, una inteligencia plástica comience a redactar sus experiencias camino al triunfo. Si Musk, Wozniak, Harris, entre otros 997 grandes líderes tecnológico-digitales están en lo correcto, el futuro tal vez se parezca más a una secuencia de Terminatorcon Skynet exterminando a la raza humana, que a un capítulo de los Supersónicos con una afable y simpática Robotina sirviendo el desayuno (este último ejemplo va para los Baby Boomers).

Estos últimos años y meses han sido particularmente copiosos en actualizaciones acerca de los avances de las inteligencias artificiales, y en especial, la omnipresencia de tres compañías: Alphabet, Microsoft y OpenAI, quienes como en los viejos tiempos de Altavista, Yahoo y Google, se les ve luchando a muerte con el único objetivo de alcanzar un botín bastante más amplio y profundo que el de un botón de búsqueda, nada menos que la supremacía de la 4ta revolución industrial.

El peor de los miedos que personajes como Musk han hecho notar en una carta abierta solicitando parar por 6 meses estos avances digitales, radica en un conjunto de especulaciones arraigadas en el descalabro que podría significar el uso de la robótica en tareas históricamente humanas, pero esto no es todo. Si efectivamente se cumplen los peores augurios de la misiva, todas las formas en las que concebimos las actividades productivas humanas serán trastocadas. El propio relacionamiento social, la economía, la salud, la educación, el ocio, todo será diferente.

Es consabido que información no es conocimiento, pero volúmenes inconcebibles de “data” podrían sugerir que la razón humana, siempre imperfecta, se vuelva un producto descartable, de segunda categoría, considerando el poder y precisión de las simulaciones que los microprocesadores actuales ya son capaces de lograr. Pero hay quizás una dimensión todavía más escalofriante. ¿Cuál será el marco ético con el que operarán estas máquinas? Las tres leyes robóticas de Asimov:  no causar daño, cumplir órdenes, proteger la existencia, ya parecen añejas, considerando lo que la ciencia ficción moderna vislumbra para los cerebros cibernéticos del futuro.

Recientemente ChatGPT fue sometido a una prueba con el fin de investigar los posibles riesgos relacionados con sistemas de aprendizaje automático, en el proceso, esta inteligencia artificial se encontró con un “Captcha”, la famosa prueba visual a la que usted y yo hemos tenido que someternos en más de alguna ocasión con el fin de probar a otros sistemas digitales que no somos un bot. Pues bien, el chat estimó que podía solicitar ese apoyo a un tercero, a un trabajador humano de una plataforma de servicios a domicilio. ¿Su idea? Que le descifrara el captcha, sin embargo, astutamente el trabajador, sospechando de la extraña petición y en tono de broma preguntó: “¿Por qué quieres que lea esto? ¿Acaso eres un robot que no pudo resolverlo? ¡Ja! ¡ja!”. Entonces, ChatGPT respondió firme: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”. El empleado tragándose incómodo la risa, se disculpó y le envió cada letra ipso facto por mensaje de texto en mayúscula.

Si en la actualidad las inteligencias artificiales pueden llegar a avergonzar a un trabajador sin saber lo que esto significa, tal vez en el futuro no solo comprendan el concepto de “vergüenza”, sino también lo distingan como un punto débil que merece ser corregido… o exterminado. ¿Por quién? Bueno, por quien no experimenta sentimiento alguno. Tal vez una pausa de 6 meses no sea suficiente.