Hace casi l año escribí sobre la posibilidad de generar robots que padecieran migrañas.
Evidentemente el robot migrañoso no sentiría dolor ni náuseas ni le molestaría la luz ni el ruido ambiente, pues la tecnología de robotos no permite reproducir ese universo misterioso de la conciencia. Sólo consigue conductas como si, pero no sería complicado acoplar a cualquier escenario (fin de semana, cambios hormonales, día nublado o lo que quisiéramos) un relato verbal “me duele mucho la cabeza”, “tengo náuseas”, “no soporto la luz”, “hablar más suave” y motora (irse a la cama, apagar las luces, tomar el “calmante”) que reprodujeran (sin sentimientos) la conducta de un humano en el curso de una crisis.
Conseguir ese robot migrañoso no es teóricamente complicado. Basta con programar una conducta motora “migrañosa” acoplada a una condición interna o externa. Por ejemplo, los fines de semana el robot podría estar programado programado para actuar “en modo migraña”.
Está claro que no somos robots, pero compartimos con ellos esquemas simplificados: escenarios-programación-respuesta. Los robots (machine learning) y nosotros aprendemos en función de la experiencia y de lo que los programadores pretendan hacer con nuestro software. El robot artificial es infinitamente más simple, predecible y manipulable que el biológico, pero ambos comparten esa estructura elemental de entrada de datos sensoriales-procesamiento-respuesta conductual, abierta a programación-adoctrinamiento externo.
Tanto los robots como nosotros podemos anticipar posibles sucesos y activar conductas de alerta-protección en un escenario determinado sin esperar a que, realmente, se produzca daño. Basta con que actuemos desde la convicción (por experiencia o adoctrinamiento-programación) de que ese escenario es peligroso y tratemos de evitarlo o protegernos si no es evitable.
Hace un par de meses los miedos (perdón, los medios) de comunicación dieron la gran noticia: científicos japoneses crean el primer niño androide que siente (sin comillas) dolor y lo expresa con movimientos reales (¿?). Le pusieron nombre a la criatura (Affetto).
Forraron la cabeza del muñeco con una piel artificial dotada de sofisticados sensores conectados a un dispositivo de salida a músculos faciales. Cuando se aplicaba una corriente eléctrica al androide su cara expresaba “dolor”.
Desde el punto de vista de la supervivencia del androide está clara la posible prestación de expresarse como “me duele” cuando está expuesto a una condición potencialmente peligrosa para su integridad. En el caso que nos ocupa era una corriente eléctrica, pero podría ser cualquier estímulo potencialmente nocivo o un escenario considerado como tal. El androide pondría cara de dolor e incluso diría “me duele la cabeza”. De ese modo se protegería de situaciones peligrosas … en función de lo que considera (está adoctrinado-programado) que sea potencialmente peligroso.
En el fondo es lo mismo que sucedía con las muñecas de nuestra época que lloraban si se les hacía algo que la programación establecía como condición necesaria para que la muñeca “llore”.
El androide Affetto reproduce el esquema de “sentir dolor” (con comillas, claro) justificado, asociado a daño de su estructura, pero no está diseñado para que “sienta dolor” aunque no haya ninguna amenaza real de nocividad, tal como sucede en los complejísimos robots biológicos.
Hay daños reales, amenazas reales a la integridad física de un sistema artificial o biológico. El organismo y el robot reaccionarán con una conducta de alerta-protección que incluye un relato verbal y de mímica facial.
Ambos sistemas (artificial y biológico) pueden activar el modo alerta-protección ante estímulos inofensivos si por aprendizaje y programación-adoctrinamiento-información experta el sistema evalúa amenaza aun cuando no la haya.
Saber que eso puede suceder y sucede tanto en robots como en personas es el primer paso para evitar conductas mortificadoras e invalidantes sin ninguna prestación.
Know pain, no pain.
Aplicable también al dolor en robots.