Moralidad Artificial

Mariana Olezza

Resumen


El objetivo de este trabajo es llevar el debate de la filosofía práctica, de la ética, al campo de la tecnología. Particularmente se analizará si es válido o no llamar morales a los Agentes Artificiales (AAs) –es decir, drones, autos que se manejan solos, (ro)bots–, debatible a causa de su falta de libre albedrío. En segundo lugar, se buscará, a través de un ejemplo práctico, establecer una manera de implementar la toma de decisiones éticas en los AAs, usando conceptos de la ética kantiana, la ética aristotélica y el utilitarismo para su construcción. Finalmente se establecerá cuáles son los límites de la responsabilidad por parte del equipo de desarrollo del producto en el diseño de estos sistemas.
Palabras clave: Agentes artificiales - Aprendizaje máquina - Ética - Kant - Aristóteles - Utilitarismo

Palabras clave


agentes artificiales; aprendizaje máquina; ética; Kant; Aristóteles; utilitarismo

Texto completo:

PDF


DOI: http://dx.doi.org/10.18294/pm.2018.2058

Editor Responsable:
Dr. Andrés Mombrú Ruggiero - (UNLa, UBA)

Propietario: Universidad Nacional de Lanús
29 de Septiembre 3901, Remedios de Escalada, Lanús
(B1826GLC), Provincia de Buenos Aires, Argentina
Registro DNDA en trámite

Latindex / EBSCO / LatinRev