Ética de la robótica:
sistemas autónomos y sus deberes morales Traductor traducir
Cuando oye la palabra «robot», ¿qué es lo primero que le viene a la mente? Para algunos son películas antiguas con personas de metal brillante, para otros es una aspiradora normal y corriente que zumba por el piso. Pero hoy en día, los robots se han convertido en algo más que simples mecanismos. Toman decisiones que antes sólo estaban en manos de los humanos. La cuestión es: ¿podemos confiar a las máquinas algo tan importante?
La tecnología ha avanzado mucho. Las máquinas autónomas, desde los coches no tripulados a los cirujanos robóticos, ya no son sólo herramientas prácticas. Están interviniendo en situaciones en las que antes no habríamos pensado en la moralidad del asunto. ¿Cómo elegirá, por ejemplo, un coche autónomo a quién salvar en el inevitable accidente? Son preguntas que necesitan respuesta, porque la tecnología avanza más rápido de lo que la sociedad puede comprender.
¿Se puede enseñar a una máquina a actuar «de forma humana»?
La ética siempre ha sido algo moldeado por la sociedad, la cultura, la familia. Pero ¿se puede educar a una máquina «para que haga»? Es difícil imaginar que se pueda simplemente tomar los conceptos del bien y del mal e introducirlos en sus algoritmos.
A primera vista, todo parece sencillo: programar el robot para que elija la solución óptima. Pero, ¿y si no hay un resultado perfecto? Por ejemplo, un coche autoconducido podría enfrentarse a la difícil disyuntiva de atropellar a un peatón o estrellarse contra un muro y poner en peligro a sus pasajeros. Esto recuerda al famoso problema ético del trolebús: ¿qué daño sería menor?
Pero la cuestión es que las decisiones de la máquina se basan en sus algoritmos. ¿Y quién está a cargo de esos algoritmos? Los humanos. Y si la programación es defectuosa o inadecuada, las consecuencias pueden ser trágicas.
¿Quién tiene la culpa, el robot o el ser humano?
Si un robot comete un error, ¿quién es el responsable? Imaginemos una situación: un coche no tripulado sufre un accidente. ¿La culpa es del propietario del coche, que confió en él? ¿O el fabricante que desarrolló un algoritmo imperfecto? ¿Quizá el programador que estableció una lógica determinada? ¿O el propio coche?
El problema de la responsabilidad nos plantea un dilema inesperado. Cuando un ser humano comete un error, se percibe como inevitable, porque nadie es perfecto. El error de un robot, en cambio, es harina de otro costal. La gente espera que una máquina sea mejor que nosotros. Al fin y al cabo, no es sólo un aparato, es un producto de la inteligencia colectiva, la tecnología y la ciencia.
Y, sin embargo, tendemos a atribuir a los robots no sólo responsabilidad, sino también intenciones. Si el asistente inteligente de tu teléfono decide no recordarte algo importante porque «estás demasiado cansado», eso puede parecer preocuparse. Pero si una máquina decide algo por nosotros en una situación en la que su decisión conlleva consecuencias de vida o muerte, ¿estamos dispuestos a aceptarlo?
Principios universales: ¿cómo armonizar la moralidad para todos?
Las personas de distintas partes del mundo tienen ideas muy diferentes sobre la moralidad. Incluso dentro de una misma sociedad puede haber acalorados debates sobre temas éticos. Por ejemplo, la eutanasia: en algunos países está permitida, en otros está estrictamente prohibida. ¿Cómo podemos esperar que un robot tome la decisión correcta en un mundo en el que nosotros mismos no nos ponemos de acuerdo?
Los desarrolladores intentan incorporar principios éticos a las máquinas. Uno de ellos consiste en hacerlas utilitarias, es decir, orientadas a maximizar los beneficios para el mayor número posible de personas. Pero esto plantea problemas: ¿la vida de quién es más importante? Y si una minoría sufre por ello, ¿merece la pena el bien común?
Y aquí llegamos a una pregunta que mucha gente prefiere no plantearse: ¿es posible enseñar moral a una máquina si nosotros mismos no siempre sabemos lo que es correcto?
¿Ética o emoción?
Existe la opinión de que los robots nunca podrán ser verdaderamente éticos. Al fin y al cabo, actúan estrictamente según un algoritmo, sin sentimientos ni empatía. Pero, por otro lado, la tecnología moderna sorprende cada vez más por su «humanidad». Por ejemplo, los sistemas de inteligencia artificial ya analizan los datos de tal manera que sus decisiones parecen razonables e incluso «compasivas».
Sin embargo, confiar en una máquina para que tome una decisión moral es muy distinto. Un robot puede entender lo que es beneficioso, pero ¿es capaz de sentir remordimiento o darse cuenta de que sus decisiones han afectado a la vida de alguien? Es difícil imaginar que esto llegue a hacerse realidad. Pero, ¿quién sabe?
¿Quién debe decidir por los coches?
Una de las cuestiones más acuciantes no es sólo cómo enseñar moralidad a los robots, sino quién dictará exactamente las normas. Las diferencias culturales, religiosas y políticas son tan grandes que no existen normas uniformes. Lo que se considera normal en un país puede ser completamente inaceptable en otro.
Algunos han sugerido crear acuerdos internacionales para regular estas cuestiones. Pero tales acuerdos son un proceso complejo, y siempre existe el riesgo de que alguien decida violarlos por sus propios intereses. Esto nos hace preguntarnos si no estamos creando un sistema que no podemos controlar.
Ética y progreso: ¿dónde está el equilibrio?
La tecnología avanza y no hay quien la pare. Los robots se están convirtiendo en parte de nuestras vidas, y con el tiempo desempeñarán un papel aún mayor. Pero, ¿estamos a la altura de este progreso? ¿Estamos preparados para las consecuencias de sus decisiones?
El progreso es imposible sin riesgo, es cierto. Pero si dejamos cuestiones éticas sin resolver, las consecuencias pueden ser catastróficas. Por otra parte, un exceso de prudencia puede paralizar el desarrollo. ¿Dónde está el equilibrio?
La ética de la robótica es un reto ineludible. Las máquinas están cada vez más implicadas en nuestras vidas, y no sólo debemos enseñarles «a trabajar», sino también «a pensar» teniendo en cuenta nuestros valores. Sigue habiendo preguntas, y es poco probable que encontremos todas las respuestas ahora mismo. Pero una cosa es cierta: el futuro de la tecnología depende de nuestra propia voluntad de integrarla en nuestro mundo.
- Filosofía moderna
- Robotización y automatización en la industria alimentaria: aumentando la productividad
- "Yo, robot" de Isaac Asimov, resumen
- La nueva etapa del Stanislavsky Electrotheatre se inauguró con la actuación "Coronel Bird"
- "Cinco días en el Memorial: vida y muerte en un hospital devastado por la tormenta" de Sheri Fink
- Dmitry Morozov y Dmitry Galkin: "Artistas y robots. Códigos robóticos. Aparatos de máquinas"
- TOP 5 tazas útiles para un niño
No se puede comentar Por qué?