¿Máquinas con ética? Cómo enseñar moralidad a los administradores para traducir la ética en números | Tecnología

Hay tres elementos básicos en la fórmula matemática para enseñar un código de ética a las máquinas. No hay mucha diferencia entre el café y las personas. La acción, el valor y el cumplimiento de las normas se están probando con investigadores para establecer los límites que controlan el comportamiento de las inteligencias artificiales.

Para las personas, el valor equivale a una especie de norma social generalmente aceptada: sabemos que mentir es una acción moralmente reprochable. Y las normas ayudan a formalizar la idea de valor en un código legal. “Las normas prohíben, como prohibir fumar en espacios cerrados, pero el valor también ayuda a promover buenas acciones, como donar o ser amable”, afirma Maite López-Sánchez, investigadora en IA y Catedral de la Universidad de Barcelona, ​​que trabaja en sistemas para Introducir principios éticos en los sistemas de inteligencia artificial.

Las personas aprendemos este marco, que sirve para delimitar nuestro comportamiento, durante el proceso de socialización. Pero la misión de las máquinas es traducir todos los números y funciones matemáticas. El objetivo final es proponer un orden de actuaciones. “En definitiva, las máquinas están muy integradas en la sociedad y toman decisiones que nos afectan como personas. Es deseable que estas decisiones estén alineadas con nosotros, entendemos que es correcta, que se integren bien socialmente”, sostiene el investigador.

López-Sánchez explicó lo más fundamental para explicar la necesidad de tener máquinas de forma ética: “Puedes tener un vehículo autónomo y, si eres el sujeto de tu trabajo, el vehículo hará la ruta que sea más eficiente o más rápida . Tenemos muy claro que quiero ir a mi trabajo, pero no quiero lastimar a mi hija. No existe algo moralmente correcto”. Pero la casuística va mucho más allá de las suposiciones extremas. “Hay muchos aspectos a considerar a la hora de conducir correctamente. No se trata de saltarse las normas, sino de hacer las cosas bien, como dar paso a una curva, mantener la distancia de seguridad o no ser agresivo con la bocina”, añadió el investigador.

La ética y la inteligencia artificial también sirven para promover el trato igualitario. «Si se trata de un sistema de decisión para garantizar la seguridad médica, queremos que sea un algoritmo que no funcione, que trate a todos para que sean evaluados por igual», dijo.

En los últimos años ha saltado a la paleta de algoritmos de todo tipo. Un sistema desarrollado por Amazon que selecciona candidatos para un puesto de trabajo Favorecer los programas de estudio para hombres antes que para mujeres.. Hizo esto porque estaba matriculado en la mayoría de los programas de grado masculinos y no tenía ningún tipo de corrección desde ese destino. Otro algoritmo, en este caso, es el que utiliza el sistema sanitario de Estados Unidos, penalizar a los negros delante de los blancos a la clínica de igualdad de gravedad, de forma que asigna un mayor riesgo a los blancos y, por tanto, les da prioridad a la atención médica.

Además, los sistemas autónomos están vinculados a cuestiones relacionadas con la propiedad intelectual o el uso de datos privados. Una fórmula para evitar estas deficiencias es establecer límites automáticos en el diseño del algoritmo. Ana Cuevas, catedrática del área de Lógica y Filosofía de la Ciencia de la Universidad de Salamanca, defiende esta investigación proactiva: «No esperamos que pasen cosas para analizar los riesgos que puedan existir, si no es a partir de la asunción de la arriba. Necesitamos crear un sistema de inteligencia artificial que piense que este es el tipo de sistema que queremos crear para evitar resultados inevitables”.

La ética en el lenguaje de las máquinas

Introducir un corpus ético en las máquinas es un trabajo relativamente nuevo. La comunidad científica ha comenzado a hacer todo desde el punto de vista teórico, pero no es común en el bar darse cuenta de los valores en cifras y la enseñanza moral en la ingeniería. En el grupo de investigación de Sánchez-López, ESPERAde la Universidad de Barcelona, ​​explora este campo de forma experimental.

Estos investigadores convencen de los conceptos de valor y actúan sobre el diseño de los sistemas. “Tenemos funciones matemáticas que nos dicen que para un determinado valor, una determinada acción de la máquina se considera positiva o negativa”, informa López-Sánchez. Por lo tanto, en el ejemplo de un automóvil autónomo, una conducción suave en una carretera con curvas se considerará positiva en términos de valor de seguridad. Incluso si observa el prisma del valor de la capacidad con otros conductores, el vehículo puede decidir aumentar su velocidad si observa el ritmo de otros vehículos.

En este caso concreto, hay un conflicto entre valores, que se resuelve con la reflexión. Anteriormente se establecían preferencias que indicaban qué valores prevalecían. Todo el complejo incluye fórmulas intercaladas, que también deben contener la variable de la norma. “Existe otra función que establece que una norma promueve un valor”, subrayó el investigador. «Y también tenemos funciones que observan un estándar para evaluar la acción y también cómo evaluar el valor de la acción». Se trata de un sistema complejo para el que la retroalimentación es clave.

Cuando López-Sánchez debería evaluar referirse directamente al aprendizaje automático. Una de las formas que debes aprender es ayudarte, como las personas, que actuamos bien porque tenemos bonificaciones y evitamos hacerlo mal porque somos castigas. La inteligencia artificial también cuenta con este mecanismo.

“Las recompensas son números. Los precios son daños con números positivos y los castigos son daños con números negativos”, explicó el investigador de la WAI. “Las máquinas pretenden sumar tantos puntos como sea posible. Así que la máquina intentará llevarla si tiene muchos puntos positivos cuando hace las cosas bien. Y, si cuando le va mal, el castigo y los quito puntos, no le harán daño”. Cómo educar a los niños es un punto de la buena educación.

Pero quedan muchas preguntas por responder. Para usarlo, algo así como decidir qué valores ponemos en las máquinas. “La ética se desarrolla de formas muy diferentes. En algunos casos tendemos a hacer cálculos utilitarios, para minimizar riesgos o daños”, afirmó el profesor Cuevas. “Otros son más importantes porque utilizan códigos de ética más estrictos, como establecer que un sistema no puede ser mental. Cada sistema debe incorporar ciertos valores y por tanto tener un sentido comunitario y social”.

El laboratorio de López-Sánchez trabaja en estudios sociológicos para descubrir valores comunes entre personas y personas de diferentes culturas. Al mismo tiempo, hace referencia a documentos internacionales, como la Declaración Universal de Derechos Humanos de la ONU. Todavía hay aspectos más difíciles de alcanzar un consenso a nivel mundial. Entonces grita Cuevas: “Los límites de las máquinas se extienden hasta nuestras fronteras. La Unión Europea, por ejemplo, tiene una forma de hacer las cosas y Estados Unidos otra, enfatiza, en referencia al distinto enfoque de regulación que se encuentra a cada lado del Atlántico.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.

Suscríbete para seguir el curso

Límites del pecado de Lee

_