El juicio, la valoración, la pretensión, no son experiencias vacías que la conciencia tiene, sino experiencias compuestas de una corriente intencional.
Desde Nature News
Por Peter Danielson
Traducción: KC
LIBRO REVISADO: Moral Machines: Teaching Robots Right from Wrong (Maquinas morales: Ensañando a los Robts el bien y el mal)
por Wendell Wallach y Colin Allen
Oxford University Press: 2008. 288 págs. $ 29.95
Los Robots podrían tener distintos niveles de moral, según su función.
En contraste con las fantasías de Hollywood, de inteligentes pero malignas máquinas y las especulaciones de los investigadores acerca de la trascendencia basada en máquinas, Moral Machines es modesta, precisa e informativa. Los autores proporcionan cuentas claras de las cuestiones éticas y filosóficas, sin presuponer antecedentes técnicos en el lector. Para preguntar si las máquinas sin conciencia puede ser agentes morales, se centran en la moral funcional: "los agentes morales vigilan y regulan su comportamiento teniendo en cuenta los daños que sus acciones pueden causar o las funciones que pueden descuidar". El libro cubre una amplia gama de enfoques, organizando la investigación actual en la aplicación de arriba abajo de las teorías éticas tradicionales, de abajo hacia arriba en las estrategias de aprendizaje o de evolución y el trabajo sobre la aplicación de las emociones en los ordenadores.
Dado que no está cerca el momento en el que los robots ejecuten una moralidad funcional, la discusión del libro puede parecer prematura. Los autores abogan por un pronto inicio. Pero existe el riesgo de que tales principios de formulación de las cuestiones pueda ser poderosamente destacados; hay que presenciar la influencia de Isaac Asimov con sus tres leyes de la robótica, un ejemplo de normas morales para robots basadas en jerarquías. Los objetivos de los autores es enmarcar la discusión a manera de guía para la tarea de ingeniería de diseño de agentes morales artificiales. Pero hay tres problemas principales sobre la forma en que enmarcan el tema.
En primer lugar, los autores extienden su caso, tanto en términos de la necesidad de evaluaciones morales y como en los sistemas que analizan. Como respuesta a la pregunta de si el mundo necesita estos agentes artificiales morales, utilizan el ejemplo del apagón en el noreste de Estados Unidos en 2003, en el que "agentes de software y sistemas de control en... las plantas de energía activaron los procedimientos de cierre, dejando casi nada de tiempo para la intervención humana". En consecuencia, sostienen que "hay una necesidad de sistemas autónomos para sopesar los riesgos contra los valores". El ejemplo es sorprendente: la infraestructura de las redes eléctricas a gran escala está muy lejos de los aspiradoras-robot y de las enfermeras que pueden necesitar una moral funcional.
Aunque el libro se centra principalmente en los robots físicos y el software de simulación utilizado en su diseño, los autores deliberadamente aumentan el alcance de su enfoque para incluir a agentes de software, o bots. Pero no discuten las cuestiones éticas, tales como la privacidad, planteada por programas como los "bots que deambulan por internet realizando minería de datos". Preguntando a la gente si quiere que las computadoras realicen decisiones morales puede producir diferentes respuestas que si se les pregunta lo mismo sobre robots físicos, en los que las cuestiones de control y de responsabilidad son más simples, porque los robots son locales.
En segundo lugar, el énfasis en la autonomía de la definición de robot de los autores, haciendo hincapié en "la independencia de la supervisión humana directa", excluye la importante opción alternativa de los robots controlados a distancia. Un ejemplo de este tipo de tecnología es la cirugía robótica, que promete grandes beneficios, pero plantea muchos menos problemas filosóficos y éticos de otras aplicaciones. Del mismo modo, aviones predadores dirigidos por control remoto no plantean nuevas cuestiones éticas. En estos casos, uno podría simplemente insistir y desarrollar mejores tecnologías para la supervisión y control remotos.
Por ejemplo, tras el descarrilamiento del tren conmutador en Los Ángeles, California, en septiembre de 2008, se propuso que hubiese cámaras de vigilancia en las cabinas de tren - en lugar de una educación moral extra para los conductores - podrían aliviar los fracasos de la autonomía humana; en este caso, al parecer el conductor se distrajo por estar leyendo. Por lo tanto, la autonomía no debe ser subrayado en la definición de las tecnologías meta: "Un buen agente autónomo ¿debería alertar a un supervisor humano si no puede tomar medidas sin causar algún daño a los seres humano? (de ser así, ¿es lo suficientemente autónomo?)"
En tercer lugar, el libro aboga por la aplicación de la moralidad humana, ya que es la única que conocemos. Esta elección no es tan obvia. En el futuro previsible, los robots serán inferiores a los seres humanos en su capacidad de decisión moral. Así la moralidad jerárquica de Asimov es atractiva, en comparación con una moralidad humana que hace hincapié en la igualdad de todos los agentes morales. La moralidad de los perros sería una buena alternativa. Similares a los perros, los robots varían en su capacidad de hacer juicios moralmente apropiados. Mi familia ha tenido perros bien entrenados en quienes confiamos cuando no usan correa, otros que podrían ser de confianza sólo cuando no hay tentaciones, como ardillas o gatos, y algunos que necesitan aún bozales y correas. Todos eran animales de manada, centrados en un líder, a diferencia de todos los gatos en este sentido. Un valioso objetivo a corto plazo para la ética de robots sería máquinas que pudiésemos clasificar de esta manera, para que diésemos a cada uno el nivel de confianza y control que les permita servirnos también.
Moral Machines observa con bastante antelación la ética de robots, pero no hay forma de juzgar si este libro establecerá el orden del día o si es demasiado prematuro para ser influyente.
Imagen: A. WYANT / GETTY IMAGES