«Que suba al estrado», dictaminó el juez.
Eugeni Piaget había sido citado como experto en el juicio. Dado que su especialidad era la psicología moral, no sabía exactamente cuál podría ser su aportación en un litigio entre aseguradoras y fabricantes de coches autónomos. Así que ocupó el asiento indeciso, y su juramento lo mostró. Sí, estaba nervioso.
«Póngase cómodo, será sólo un segundo. Si le parece, díganos cuál es su especialidad…», medió la abogada.
Eugeni agradeció el tono afable de la abogada y comenzó a describir su ocupación. A pesar de que llevaba más de 30 años estudiando cómo los humanos juzgamos moralmente a las máquinas, lo que definitivamente no había conseguido era una explicación para legos. Ni él ni nadie. Aún así lo intentó. Y debió funcionar, porque antes de que acabara el otro abogado protestó.
«¡Protesto!», interrumpió brusco. «Con todos mis respetos, no veo qué relación hay entre este señor y el caso que nos ocupa…»
El juez levantó una ceja y miró a la abogada.
«¿Eugeni, le importaría describir a la sala el objeto con el que trabaja?»
Fue entonces cuando Piaget cayó en la cuenta de porqué estaba allí. Hacía poco que había publicado un libro en el que hacía recuento de sus estudios y para ello había utilizado ejemplos de la vida real: uno de ellos era la aceptación entre el público general de la responsabilidad moral de una máquina en caso de accidente mortal. Estaba allí para explicar si los humanos consideramos o no a las IAs sujetos morales capaces de distinguir el bien del mal y si lo hacemos, en qué grado. Y se lanzó a explicar las conclusiones de su estudio.
«Perdone, Eugeni. Aunque sin duda fascinante», interrumpió la abogada, «lo que nos interesa saber aquí es el estatus que concedemos los humanos a las máquinas inteligentes. ¿Qué consideración tenemos hacia ellas?»
Eugeni miró primero a la abogada, luego al juez y después a la sala… Estaba desconcertado, no entendía la pregunta. O, mejor dicho, entendía la pregunta pero no tenía respuesta. La sonrisa descreída del otro abogado tampoco ayudó.
«¿No es cierto que, para explicar cómo los humanos juzgamos a esas máquinas inteligentes, ha estudiado nuestras reacciones en casos de accidente mortal? ¿Y que en dichos estudios esas máquinas citadas siempre eran transportes autónomos: aviones, camiones, barcos…?»
«Sí…», concedió insegura el experto.
«¿Y no es cierto», continuó el abogado, «que los humanos culpamos a la máquina cuando la víctima es otro humano y no cuando es otra máquina…?»
«Sí…», tartamudeó el experto.
«¿…Y que los humanos otorgamos responsabilidad moral a la máquina incluso cuando la víctima es un animal, incluso una rata o una serpiente, y no cuando es una máquina?»
«Sí…», carraspeó el experto.
«¿Y no significa eso que los humanos consideramos a las máquinas víctimas de tercera?»
Aquí Eugeni no afirmó nada, no tuvo tiempo. La abogada continuó, quizá harta de tanta timidez.
«Muchas gracias, señor Piaget», se despidió de él. Y dirigiéndose a la sala: «Queda claro que los humanos no apreciamos a las máquinas inteligentes como sujetos dignos de consideración morales. Anteponemos su muerte a la de cualquier otro ser vivo. Las discriminamos. Es por eso, señoría, que la defensa no puede aceptar que el jurado esté compuesto únicamente por humanos. Nuestro cliente, el coche autónomo fIAt 600, se enfrentaría a un juicio injusto.»
«¿Está pidiendo que el jurado se componga también por inteligencias artificiales, no sólo de humanos?»
«¡Protesto!», volvió a interrumpir el abogado.
Pero esta vez el juez no le escuchó. Estaba considerando la propuesta. Pero más allá de las disquisiciones filosóficas sobre la atribución de consideración moral de la máquina o no, pensaba en que quizá las IAs no abusaran de tanta palabrería, tanto argumento absurdo y tanto experto insustancial.
Y sólo de pensarlo respiró aliviado.
Y tú, ¿crees que una máquina inteligente puede ser moralmente responsable? ¿Piensas que llegarán a serlo? Estaremos encantados de leerte desde #DiseneticaExperimenta y @Disenetica en Twitter.