jueves, 17 de mayo de 2018

Sarah Connor, ¿dónde estás cuando haces falta?


En los escritos de Isaac Asimov, como un modo de luchar contra el síndrome de Frankenstein (esto es, que la creación se vuelva contra el creador), los robots que aparecen están gobernados por las denominadas tres leyes de la robótica, a saber:
  1. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Más tarde, estas tres leyes serían matizadas por la Ley Cero (Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño)… pero esa es otra historia.
Dejando aparte el hecho de que tales leyes son un constructo de ficción que sirvió a Asimov (y a otros autores) para plantear historias en las que entraba en juego la interacción entre varias de estas leyes, parece que en nuestro mundo estamos todavía muy lejos de implantar algo parecido en las llamadas inteligencias artificiales. Sólo así cabe interpretar la noticia de que en el caso del coche autónomo de Uber que atropelló a una mujer cuyos sensores habían detectado, el software decidió ignorar los datos al estar configurado para no reaccionar si no lo tenía muy claro (es decir, en la duda tira p’alante).
Porque la alternativa –que vayamos camino del mundo de Terminator- da mucho miedo…
¡¡¡VIVA ESPAÑA!!!

No hay comentarios: