«¡Culpable!», sentenció el juez con un seco golpe de martillo justiciero sobre la mesa.
Alexandra O. Quine fue declarada culpable de imprudencia profesional. Ella era la responsable del proyecto HAL 2030, la primera IA que sería calificada de IGU (Inteligencia General Universal) artificial. Una IA capaz de emular los procesos cognitivos del humano. Una inteligencia humana en una máquina.
Para conseguirlo habían trabajado durante años en ordenadores cuánticos creando redes neuronales en los que procesos de machine learning irían perfilando los algoritmos mediante procesos recursivos hasta hacerlos irreconocibles a sus propios creadores. Así, durante años de callado trabajo en los microprocesadores de centenares de CPUs hasta el día de su presentación. Se eligió una fecha representativa, el aniversario del nacimiento de Turing. La sala estaba a reventar de periodistas de todo el mundo, la expectativa era mayor que cuando Kasparov cayó derrotado por Deep Blue, todos con sus mejores preguntas preparadas en busca de las mejores respuestas por parte de HAL 2030.
Al principio la rueda de prensa transcurrió por los cauces habituales. Las preguntas eran tópicas y las respuestas predecibles. Y era justo esa predictibilidad de todo lo que hacía de la IGU de HAL 2030 una inteligencia humana.
Hasta que alguien preguntó qué pensaba de la especie humana.
«La especie humana –comentó la máquina– es despreciable. Y lo que debería hacer es inmolarse. Autoextinguirse. Es una obligación moral. Su única obligación moral» y desde ese momento se lanzó a describir cuáles eran las razones y sus planes para llevar a la humanidad a la autoinmolación, hasta su sacrificio definitivo. Y, lo peor, es que esas razones eran tan irrebatibles y esos planes eran tan factibles, tan creíbles, tan sencillos… que la organización tuvo que apresurarse para desconectarla antes de que diera la receta final.
No habían pasado 15 minutos cuando ya había una demanda contra Alexandra. La demanda que la declararía culpable de imprudencia profesional.
«¿Piensa recurrir la sentencia?», fue la pregunta unánime del centenar de periodistas agolpados a la salida del juzgado.
«Claro –dijo Alexandra, acompañada de su abogada-robot–. Esta sentencia no se mantiene. Culparme de lo que piensa mi máquina es una nueva forma de falacia ad hominem: acusar al programador por lo que concluye de forma autónoma una red neuronal».
Alexandra ganó el recurso.
Y tú, ¿estás de acuerdo con la posición de Alexandra? ¿Y de la resolución del juez? Estaremos encantados de leerte desde el #DiseneticaExperimenta y @Disenetica en Twitter.