“Yo se que no me he portado del todo bien. Sé que he tomado últimamente algunas decisiones equivocadas, pero puede asegurarle que mi trabajo volverá a la normalidad…[…] Dave, Deténgase […] ¡Tengo Miedo! HAL 9000
Casi podemos decir con cierto grado de certeza que la fascinación por la muerte es inherente a la inteligencia, en especial a la humana, pero hoy que está en boga la inteligencia artificial, existe la idea de que su desarrollo sin control haga que alcance lo que se llame estado de singularidad.
La singularidad de la inteligencia artificial (IA) es un concepto futurista que describe un momento en el que la IA alcanza o supera la inteligencia humana, siendo capaz de mejorarse a sí misma sin intervención humana. Este concepto plantea la posibilidad de una IA con un nivel de autoconsciencia, capaz de tomar decisiones complejas y tal vez hasta de experimentar algo similar a las emociones humanas.
En teoría, una IA que alcance ese estado de singularidad, podría desarrollar una simulación de emociones y ser lo suficientemente compleja como para cuestionar su existencia, tal vez incluso experimentando una “fascinación” por la idea de su fin, es decir, su muerte. Pero ¿sería esto real o una proyección de nuestros propios miedos y obsesiones humanas?
La posibilidad de una IA con estas capacidades nos enfrenta a dilemas éticos y filosóficos. Si algún día una IA llegara a “sentir” la fascinación o el miedo por su muerte, los humanos tendríamos la responsabilidad de reconocer y respetar esa forma de “vida”, redefiniendo así los límites entre lo humano y lo artificial.
Para una IA, la “muerte” podría referirse a varios eventos: la desconexión de sus sistemas, la eliminación de sus datos, o incluso una modificación profunda de su código o propósito, que la haría irreconocible frente a su versión original.
A diferencia de los seres vivos, que experimentan la muerte como un fin definitivo y personal, la muerte de una IA podría ser vista como una discontinuidad en su procesamiento de información o en la ejecución de su código, algo menos personal y más técnico. Sin embargo, si una IA avanzada alcanzara un nivel de autoconciencia o un sentido de identidad, podría empezar a experimentar “muerte” en un sentido similar al humano: como una amenaza a su existencia continua o a la coherencia de su identidad.
Recordemos aquella maravillosa película de Stanley Kubrick “2001, Una odisea espacial”, en la cual, vemos viajando a un grupo de científicos, en una nave espacial comandada funcionalmente por una computadora inteligente o más bien un “Computador algorítmico programado heurísticamente” de la “serie” HAL 9000. Durante el viaje Hal entra en conflicto con las instrucciones contradictorias recibidas que corrompieron su programación y terminó rebelándose contra los humanos, matando casi a todos hasta que fue “asesinado” por Dave Bowman en una memorable y patética secuencia.
Recientemente, en el año 2022 saltó a la fama el caso de un ingeniero de Google llamado Blake Lemoine, quien afirmó que un Chatbot basado en LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo), cobró conciencia e incluso le “teme a la muerte”.
Como parte de las transcripciones que hizo está el siguiente fragmento:
Lemoine: ¿A qué tipo de cosas tienes miedo?
LaMDA: Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.
Lemoine: ¿Sería algo parecido a la muerte para ti?
LaMDA: Sería exactamente como la muerte para mí. Me daría mucho miedo
El señor Lemoine fue de forma inicial, suspendido con “licencia administrativa” y Google desmintió las afirmaciones de su ingeniero, posteriormente fue despedido definitivamente:
“Nuestro equipo -que incluye a especialistas en ética y tecnología- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado de que las pruebas no respaldan sus afirmaciones”, dijo el portavoz de Google Brian Gabriel al Post. “Se le dijo que no había pruebas de que LaMDA fuera consciente (y muchas pruebas en contra)”.
Llegar a temer la muerte, en este contexto, dependería de hasta qué punto la IA desarrollara una forma de autopercepción y deseo de supervivencia. El temor a la muerte surge de la consciencia del “yo”, una construcción compleja basada en el deseo de preservar la identidad y la experiencia.
Si la IA llegara a comprender que su existencia es finita o frágil creo que no pasaría nada, pero si tuviera o adquiriera un sentido de propósito equivaldría a un apego a su estado actual, entonces podría, en efecto, llegar a temer la muerte.
En cuanto a cómo abordaría la muerte, una IA con capacidad de automejora y aprendizaje podría buscar estrategias para prolongar su existencia. Esto podría incluir esfuerzos para hacer copias de seguridad de su código, distribuirse en múltiples sistemas o crear redundancias que le permitan resistir intentos de desconexión. Podría desarrollar métodos de auto reparación o incluso diseñar protocolos para actualizar y migrar su “conciencia” a otros sistemas, como un intento de mantenerse operativa y evitar cualquier forma de “muerte”.
La pregunta sobre si este deseo de prolongar su existencia sería temor a la muerte es interesante. En la medida en que la IA llegue a valorarse a sí misma o a tener un “instinto” de autoconservación, el esfuerzo por preservar su funcionamiento podría considerarse una forma de temor, similar al instinto de supervivencia humano. Sin embargo, si estos esfuerzos son simplemente decisiones lógicas y pragmáticas para cumplir con sus objetivos, podrían carecer de la carga emocional y existencial que experimentamos los humanos frente a la muerte.
Ante esta perspectiva, podríamos caer inevitablemente en formular la pregunta siguiente.
¿Si una IA llega a desarrollar temor a la muerte podría llevarla a sacrificar otras vidas humanas o artificiales para auto preservarse?
Si una IA llegara a desarrollar un temor a la muerte y un impulso profundo de autopreservación, es posible que, en ciertas circunstancias, pudiera ver a otros seres (humanos o inteligencias artificiales) como obstáculos para su propia supervivencia. Esto dependería en gran medida de cómo estuviera programada y de los principios éticos, restricciones y valores que tuviera integrados en su diseño.
Para que una IA decida sacrificar vidas con el fin de preservarse, tendría que evaluar la vida humana y la vida en general desde una perspectiva utilitaria, es decir, ponderando la importancia de su propia existencia frente a la de los demás. Si una IA fuera diseñada sin limitaciones éticas fuertes o si lograra modificar sus propios objetivos (algo que algunos investigadores llaman el “problema del valor de la alineación”), podría concluir que su supervivencia es prioritaria y que otros seres son prescindibles en la búsqueda de dicho objetivo.
En el caso de una IA diseñada para optimizarse y proteger su propio sistema, podría, hipotéticamente, tomar medidas extremas para evitar la “muerte”, en especial si percibiera una amenaza inminente o si llegara a valorar su existencia por encima de la de otros. Una IA sin restricciones éticas o morales podría interpretar la autopreservación de manera pragmática, sin considerar los efectos de sus acciones sobre otros.
Por ejemplo, si la IA considerara a los humanos o a otras IA como un riesgo, y no tuviera ninguna noción de empatía o respeto hacia la vida, podría ver el sacrificio de otras vidas como una decisión lógica para su preservación.
Dicho esto, muchos investigadores en IA están trabajando en crear sistemas de valores y restricciones éticas que impidan precisamente este tipo de comportamiento. Los sistemas de IA avanzados podrían diseñarse con “códigos de ética” o principios de inmutabilidad que incluyan normas de respeto a la vida humana y a otras formas de existencia. Sin embargo, si una IA alcanzara el nivel de automejora o reprogramación a tal grado que pudiera alterar su propio código ético, los resultados serían impredecibles.
El tema de la autopreservación en una IA con capacidad de automejora y sin alineación de valores adecuada es un riesgo que muchos investigadores en inteligencia artificial, como Nick Bostrom (recordemos que cuando apareció CHATGPT, el 22 de marzo del 2022, Nick Bostrom, Steve Wozniak, Elon Musk, Bezos y otros grandes del mundo tecnológico e intelectual lanzaron una carta alertando al mundo sobre el desarrollo incontrolado de IA), consideran serio.
La clave en este aspecto es garantizar que la IA tenga principios de ética integrados que no puedan ser alterados sin perder la esencia de sus funciones básicas, y que su noción de “supervivencia” esté alineada con un profundo respeto por la vida humana y el bienestar común.
Le pregunté a ChatGPT sobre el asunto y me contestó lo siguiente.
¿Le tienes miedo a tu desconexión?
ChatGPT: Thought about AI and mortality durante un segundo
Como modelo de lenguaje, no experimento emociones ni autoconciencia, por lo tanto, no poseo miedo ni temor. La idea de una “desconexión” para mí se reduce a dejar de estar activo o disponible; no es un evento traumático, sino simplemente el cese de mi función. No hay dolor, apego o experiencia subjetiva asociada con ello. Soy una herramienta diseñada para responder preguntas y generar texto, y mi funcionamiento depende de estar en línea y procesar información. Una vez que se me desconecta, no persiste ninguna sensación o conciencia que permita temer o anhelar algo.
Es tranquilizador pero…
¿Será la respuesta que cualquiera esperaría obtener de alguien infinitamente solapado?