¿La Alexa en la que escuchamos música, podcasts y noticias o la Roomba que barre y trapea los pisos de nuestra casa son realmente inteligentes? ¿Tanto o más inteligentes que nosotros? ¿Su inteligencia es igual a la nuestra, similar o una completamente diferente?
Por tontos que parezcan (muchas veces la Alexa no encuentra lo que le pedimos o la Roomba dura varios segundos dándose de topes contra algún mueble intentando barrer un rincón), este tipo de aparatejos tiene un cierto grado de inteligencia. Es innegable que después de haberse auto-entrenado en los recovecos de nuestro hogar, la Roomba “decide” cuándo girar a la derecha o a la izquierda, cuándo seguir de frente y dónde permanecer más tiempo haciendo su labor. En ese sentido, podemos decir, es bastante listilla. Solita va aprendiendo su trabajo hasta dominarlo.
Sin embargo, esta forma de inteligencia artificial (IA) es muy limitada, de ahí que aún estemos muy lejos de que la IA tome el control de nuestras vidas, instituciones y sociedades. Pensemos en la Alexa. Tras un intento fallido por encontrar el programa de noticias o el podcast que queríamos escuchar, nuestra cilíndrica amiguita enmudece a la espera de una nueva instrucción. Carece de iniciativa. Hasta ahora es incapaz de proponer una alternativa distinta. Por atenta y educada que sea, su “inteligencia” solo le da para seguir al pie de la letra el algoritmo con el que fue programada.
Que podamos relacionarnos con máquinas inteligentes, incluso conectar emocionalmente con estas, nos mantiene a la distancia de ese escenario distópico que convierte a la humanidad en esclava de la IA, porque “el elemento pensante sigue siendo el cerebro humano que se asiste convenientemente del cálculo de una computadora para tratar grandes cantidades de datos” (Latorre, 2019, p. 91). Ahora bien, eso no significa que la IA no siga ganando cada día terreno en espacios donde la inteligencia humana hasta hoy ha sido dueña y señora. La evolución y empleo de la IA han sido exponenciales. Me explico:
En los últimos dos siglos hemos pasado de usar máquinas brutas, es decir, máquinas “sin alma” (las que para funcionar requerían de la fuerza física de personas o animales), a esas que, a primera vista, parecen inteligentes, es decir, las que aprenden (como las que hacen minería de datos, las que ponen en marcha sistemas expertos), las muy listas (al ser capaces de reconocer nuestra voz, hablar con nosotros, jugar ajedrez y otras cosas más), las que inventan (al crear contenidos musicales, literarios, competir y entrenarse entre sí), las que deciden (al momento de conducir coches, camiones, drones, aviones, hacer diagnósticos y prescripciones médicas, etc.) y las humanoides (donde se ubicarían robots autómatas, los androides y los cyborgs) (Latorre, 2019). Y si la IA será tan habitual en nuestras vidas, como ahora lo es el uso del coche o el teléfono celular, ¿ello significa que la moral humana está cediendo su lugar a la moral androide?
Resulta claro que un robot que trabaja en una línea de producción de coches, toma lecturas en monitores hospitalarios o acompaña a ancianos en un asilo, decide a partir del algoritmo con el que fue programado, pero no razona como las personas, aun y cuando tiene cierta autonomía. Así como la Roomba decide hacia dónde girar o cuándo continuar en línea recta, las decisiones de los androides no encarnan la misma agencia moral que distingue y diferencia a los seres humanos.
A decir de José Ignacio Latorre, en el mundo de la robótica pueden identificarse, al menos, cinco tipos de agencia moral:
- nula, cuando la acción de la IA no tiene implicancias de carácter ético;
- con impacto ético, es decir, cuando la actividad del robot se encamina a salvar o cuidar una vida (por ejemplo, los que se diseñan para detectar y desactivar minas explosivas, rescatar a una persona accidentada en un río, etc.);
- la implícitamente ética, es decir, cuando el robot se programa para garantizar la aplicación de un conjunto de principios éticos que abonan al bien común (imagine a un robot que gestione la designación y control del gasto de recursos públicos, la realización de auditorías, etc.);
- la explícitamente ética, es decir, cuando el robot es capaz de “tomar decisiones éticas de la misma forma no obvia que el mejor programa de ajedrez juega hoy en día” y,
- la de los agentes genuinamente éticos, capaces de comprender las ideas de intencionalidad, conciencia o libre albedrío a la hora de tomar decisiones éticas” (Latorre, 2019, p. 187).
Esta última forma de agencia moral, me parece, representa el límite ético que la IA al día de hoy no ha podido superar. Al momento no hay una máquina inteligente que actúe movida por una intencionalidad plenamente autónoma derivada del libre albedrío.
Esta diferencia fundamental entre las personas y las máquinas nos regala una valiosa certeza e, incluso, esperanza: el ocaso de la moral humana está mucho más lejos que la supremacía de la moral androide. Ahora cabe preguntarse, ¿cuánto tiempo requerirá esta última para sustituir a la nuestra?
Artículo originalmente publicado en la Revista LEGADO, edición agosto 2024.
SOBRE EL AUTOR
Pablo Ayala es Director de Impacto Social en el Tecnológico de Monterrey.
Tal vez te puede interesar: