Por
  • Francisco José Serón Arbeloa

Los propósitos son excelentes, pero no vamos por buen camino

Un robot y un niño.
Un robot y un niño.
H. A.

Fijémonos en la robótica como parte de la inteligencia artificial y, entre las áreas de I+D+i existentes en ese ámbito, centrémonos en el evidente y necesario desafío de cómo restringir el comportamiento de los robots con el fin de que sean fiables y hagan lo que deban hacer sin causar daños colaterales. Dado que las leyes de la robótica del escritor de ciencia ficción Isaac Asimov han sido un elemento literario muy exitoso y han impactado el pensamiento sobre la ética de la inteligencia artificial, me voy a permitir ejemplificar dicha problemática de control de una manera simple e irónica.

Sus tres leyes son un grupo de normas ordenadas que se aplican a la mayoría de los robots de sus obras de ficción, que en algunos casos llegan a asumir la responsabilidad del gobierno de planetas enteros y civilizaciones humanas. Aparecieron por primera vez en el relato ‘Círculo vicioso’ (‘Runaround’) de 1942 y con el tiempo Asimov también agregó una cuarta, o ley cero, para preceder a las demás. En conjunto establecen lo siguiente: Ley Cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños. Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con las leyes previas. Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con las leyes anteriores.

"Hay que ponerle límites, dejar muy claro para qué se necesita y cómo debe trabajar"

Aparentemente no hay ningún problema para dotar a los robots con tales leyes, pero la gigantesca complejidad para su implantación reside en que el robot pueda distinguir en cada situación el concepto de daño. Ese tipo de problema pendiente requiere una comprensión amplia y básica de las necesidades, valores y prioridades de una persona, sin ello, los errores robóticos son casi inevitables. Por este tipo de cuestiones, todavía nos queda mucha tecnología que diseñar concienzudamente para evitar llevarnos sorpresas.

Todos intuimos que la inteligencia artificial es y será útil. Y a nadie sorprende cuando se manifiesta pomposamente que la inteligencia artificial siempre debe servir a la humanidad, que hay que ponerle límites, dejar muy claro para qué se necesita y cómo debe trabajar. De hecho, la sabiduría popular nos recomienda que debemos tener cuidado con lo que deseamos porque podríamos conseguirlo e incluso ir mucho más allá.

Ahora bien, lo irónico del caso es que todo este planteamiento reglamentario se basa en que el humano tiene que defenderse del robot, pero no se dice nada de los humanos. Tal y como R. J. Sawyer afirma "la inteligencia artificial es un negocio, y las empresas suelen estar de forma notoria desinteresadas en las salvaguardas fundamentales, especialmente las filosóficas. Algunos ejemplos históricos serían industrias como la del tabaco, la automotriz, la nuclear, la petroquímica... Ninguna de ellas se ha planteado desde el principio si ese tipo de salvaguardias fundamentales son necesarias; de hecho, esas industrias han resistido numantinamente las imposiciones desde el exterior y ninguna ha aceptado una norma general en contra de causar daño a los humanos".

Si reflexionamos, veremos que el desafío no está sólo en los robots o en cualquier otro tipo de inteligencia artificial. Recordemos que ya camina sobre la superficie de la Tierra lo que se denomina ‘superinteligencia’ o ‘inteligencia general’, la posee una especie que se autodenomina ‘sapiens’, que está en auge y que, a pesar de toda la legislación que la rodea y de las muchas éticas que ha discutido, tiene una forma de relacionarse con la naturaleza y con ella misma que ha dejado siempre y sigue dejando mucho que desear.

Es verdad que para que no ocurran sorpresas desagradables, se deben plantear muy bien los algoritmos antes de diseñarlos. Pero también es verdad que en un mundo como el nuestro, en el que hemos conseguido la criticable hazaña de ponerle un valor monetario a todo y en el que el desarrollo económico se realiza fundamentalmente con la premisa de que el crecimiento hay que conseguirlo lo más rápidamente posible independiente de que caiga quien caiga, creo que coincidirán conmigo en que no vamos por buen camino.

Les propongo que vuelvan a las cuatro leyes y hagan las siguientes substituciones de la palabra ‘robot’ en cada una de ellas. En primer lugar, pongan ‘ser humano’ y dejen el resto tal cual. Ahora, sigan con el experimento pongan ‘CEO de multinacional’, y por último coloquen ‘político’. Estoy seguro de que les encantaría que todos los seres humanos, los CEO de multinacional y todos los políticos se comportaran así, pero sabemos por experiencia que es un deseo inalcanzable. Por lo tanto, al menos, intentémoslo con los robots y con el resto de los algoritmos inteligentes. Los propósitos que se plantean son excelentes, pero ya verán como vendrán ‘sapiens’ y lo fastidiarán todo.

*Catedrático de la Universidad de Zaragoza

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión