En
los escritos de Isaac Asimov, como un modo de luchar contra el síndrome de Frankenstein (esto es, que
la creación se vuelva contra el creador), los robots que aparecen están
gobernados por las denominadas tres leyes de la robótica, a saber:
- Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Más
tarde, estas tres leyes serían matizadas por la Ley Cero (Un robot no hará daño
a la Humanidad o, por inacción, permitir que la Humanidad sufra daño)… pero esa
es otra historia.
Dejando
aparte el hecho de que tales leyes son un constructo de ficción que sirvió a
Asimov (y a otros autores) para plantear historias en las que entraba en juego
la interacción entre varias de estas leyes,
parece que en nuestro mundo estamos todavía muy lejos de implantar algo
parecido en las llamadas inteligencias
artificiales. Sólo así cabe interpretar la noticia de que en el caso del coche
autónomo de Uber que atropelló a una mujer cuyos sensores habían detectado, el
software decidió ignorar los datos al estar configurado para no reaccionar si
no lo tenía muy claro (es decir, en la duda tira p’alante).
Porque
la alternativa –que vayamos camino del mundo de Terminator- da mucho miedo…
¡¡¡VIVA ESPAÑA!!!
No hay comentarios:
Publicar un comentario