¿Cómo prevenir la rebelión de los robots?


El desarrollo de aparatos cada vez más y más autónomos evoca en la humanidad el temor de que sus creaciones se salgan fuera de su control. ¿Qué se propone para eliminar este riesgo?

Mientras que la verdadera inteligencia artificial todavía está muy lejos, varios sistemas que buscan copiar el modo de funcionamiento del cerebro humano —en forma de redes neuronales artificiales— ya son una realidad.

Por ejemplo, el algoritmo Google Deep Dream es competente en la percepción de las imágenes, y el sistema Watson, desarrollado por IBM, es capaz de entender un lenguaje casual y predecir las enfermedades basándose en un conjunto de síntomas.

La computarización masiva está por venir, y los especialistas en robótica empiezan a preguntarse cómo asegurar que una máquina actúe conforme a la moral —una noción muy humana—.

Es como educar a los niños

Los conceptos de ética pueden ser planteados en una máquina de la misma manera en que los humanos crían a sus menores, opinan Mark Riddle y Brent Harrison, los científicos del Instituto de Tecnología de Georgia (EEUU).

En particular, se trata de los cuentos, las historias diseñadas para aprender a distinguir el bueno del malo. Como los pueblos de todo el mundo utilizan historias imaginarias para mostrar a los niños cómo comportarse en la sociedad, el mismo método es posible para una inteligencia artificial.

Los investigadores ilustraron el método con dos sistemas integrados.

"Scheherazade", el proyecto anterior de Riddle, se basó en el crowdsourcing —una colaboración abierta distribuida— para acumular una multitud de escenarios de la vida cotidiana.

Cada historia —de las 213 seleccionadas para el estudio— gozaba de un entero árbol de decisiones posibles, formado con la ayuda de los participantes del proyecto. Los científicos atribuyeron a cada decisión un "nivel de moralidad" e hicieron que el nuevo algoritmo, denominado "Quijote", cumpliera la historia desde el inicio hasta el final con la condición de maximizar el rating final.

"Aunque es más rápido, robar es malo"

Anteriormente, al enfrentarse con el escenario de "comprar un fármaco para una persona enferma", el robot optaba por robar la farmacia —esa decisión le parecía más rápida—. Pero con la introducción de la variable de la moralidad, el robot eligió hacer cola y comprar el medicamento.

Este tipo de restricciones sería útil para los robots con funciones especializadas, según Riddle, pero está claro, que es solo el primer paso hacia una moralidad humana o las leyes de la robótica.

Fuente

0 comentarios:

Publicar un comentario