Conciencia y robótica. -Alejandro Álvarez Silva-

En 1942 Asimov, con el fin de garantizar que la humanidad no terminara siendo destruida o esclavizada por los robots, ideó un conjunto de “leyes” que por precaución deberían ser implementadas en los cerebros electrónicos de tales máquinas.

Las tres leyes originales de Asimov, que seguían el modelo de las leyes termodinámicas, eran:

1ª. Un robot no puede hacer daño a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado.

2ª. Un robot debe obedecer las órdenes recibidas por los seres humanos excepto si estas órdenes entrasen en conflicto con la primera ley.

3ª. Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la primera o segunda ley.

Posteriormente, el mismo Asimov añadiría una nueva ley, anteponiéndola a la primera: la Ley cero. Ésta dice así:

“Un robot no puede hacer daño a la humanidad, o, por medio de su inacción, permitir que la humanidad resulte dañada.”

Para explicar esta última ley, imaginemos que “un loco ha conseguido hacerse con un detonador nuclear capaz de destruir el mundo entero y que sólo un robot puede detenerle antes que lo presione”.

¿Pero, estaríamos seguros si creáramos suficientes robots con estas cuatro leyes implementadas en sus cerebros?… La verdad es que el asunto es dudoso, pues como nos comenta Barrow: “Todo se reduce a una cuestión de tiempo. La precedencia de la ley cero sobre la primera ley significa que un robot podría matarle por conducir un coche con un elevado consumo de gasolina o por no reciclar todos sus envases de plástico, si concluye que tales comportamientos constituyen a largo plazo una amenaza para la humanidad.”

El problema estriba en que el concepto de “bien de la humanidad” no está bien definido, puesto que, ¿cuál es el bien de la humanidad?

Y es que, es posible que “nos sintamos más seguros sin la ley cero que con ella”. La causa es que los robots avanzados tendrán unas mentes complejas, capaces de pensamientos complejos que incluirían pensamientos acerca de sí mismos  de nosotros, así como acerca de los objetos inanimados, o sea, tendrían una “psicología”.

Nos comenta Barrow que igual que “existen casos de seres humanos que se crean robots, podría ocurrir que aparezcan robots que se crean humanos”. En tal situación, el robot puede pensar que las cuatro leyes de la robótica no deben aplicarse a él, y de ahí a la aparición de creencia religiosas o místicas en la mente del robot sólo hay un paso. Entonces: ¿Qué ocurre con la tercera ley? ¿Qué existencia debe el robot preservar? ¿Debe preservar la materialidad robótica de su cuerpo o el “alma” que cree poseer?

Como reflexión final, nos dice John Barrow: “Cuando ese “algo” al que llamamos “conciencia” aparece, sus consecuencias son impredecibles, con un enorme potencial para el bien o para el mal, y es difícil tener lo uno sin lo otro, acaso como ocurre en la vida real.”

(De la obra de John D. Barrow “Las matemáticas de la vida cotidiana”)

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s