Margaret Mitchell: “Las personas que más perturban la inteligencia artificial no deciden sobre la regulación” | Tecnología

Margaret Mitchell, nacida en Los Ángeles, prefiere no decidir su edad. No está claro si esto es por vanidad o porque es cierto para la confidencialidad y el uso adecuado de los datos. Puede que sea lo segundo, ya que es uno de los mayores expertos en ética aplicada a la tecnología y ha dedicado su carrera a reducir algoritmos. Fundó y dirigió el Departamento de Ética de Inteligencia Artificial (IA) en Google con Timnit Gebru, hasta que los embajadores fueron despedidas con unos meses de diferencia hace tres años. Ahora supervisa el departamento de ética de Hugging Face, que es una de las 100 personas más influyentes de 2023. según la revista Tiempoy fue una de las conferencias más esperadas en la Smart City Expo celebrada en las instalaciones de Fira de Barcelona.

Pregunta. ¿Cómo responde a las tecnologías cuando está informado sobre cuestiones éticas?

Respuesta. La gente que trabaja con Google es verdaderamente la apasionaba. En los niveles superiores de la empresa no estaba muy claro que lo que hacíamos fuera importante, pero no se entendía.

PAG. ¿Por qué se despidieron?

A. No es posible que nadie piense que nuestro trabajo en materia de ética no es adecuado. Está más relacionado con diferencias de poder y, sobre todo, porque mi colega (Timnit Gebru) lo trató como si fuera menos que sus camaradas, por racismo. No puedo evitar tener una vista o no decir nada. Esta es una discusión más amplia sobre el poder y la discriminación sistémica.

PAG. ¿Cuál es la importancia de la ética para los desarrolladores de IA?

A. Depende de quien seas. Ha trabajado con mucha gente que siempre está pendiente de hacer las cosas bien. Pero la cultura del mundo del desarrollo tecnológico y la ingeniería tiende a favorecer el comportamiento de Alfa, donde quieres ser el primero en comprar algo o con el mejor resultado. Esto podría disuadir al trabajo de considerar consideraciones éticas.

No son lo mismo perspectivas marginales que importantes en el desarrollo tecnológico

PAG. ¿Cómo funciona la discriminación y las funciones de los algoritmos?

A. Principio Principio: Si las decisiones no las toma un grupo inclusivo de personas diversas, no será posible incorporar la diversidad de pensamiento en el desarrollo de su producto. Si no estás invitado a la mesa de los marginados, los datos y la forma de copiar reflejarán la perspectiva de quienes sí pueden serlo. En las empresas de tecnología todavía hay hombres blancos y asiáticos muy desfavorecidos. Y no hay información sobre los datos que no esté completa, porque refleja tu visión. Entonces, si las perspectivas marginales no se tratan como cosas importantes en el desarrollo de la IA, crean tecnologías que no funcionan para las personas marginadas o están en riesgo. Por ejemplo, Coches autónomos que los niños no pueden detectar., porque los datos que controlas no están vinculados a tus comportamientos más agresivos o erráticos. Esto pasa con los airbags, que son los que más daño hacen a las mujeres, porque fueron diseñados sin tener que pensar que hay gente con gente. Se debe prestar atención a las características marginales o tratadas como menores.

Margaret Mitchell, regresando de su conferencia en la Smart City Expo de Barcelona.Alberto García

PAG. ¿Qué grupos son los más discriminados en la IA?

A. Mujeres negras, personas no binarias, personas de la comunidad LGTBIQ+ y personas latinas. Este es también el caso de quienes trabajan en empresas tecnológicas y quienes no.

PAG. ¿Cómo se puede garantizar que la tecnología respete los valores éticos?

A. Diferentes personas pueden tener diferentes valores, y algo que me ayuda a navegar este tema es la idea del pluralismo de valores. Me preocupa la idea de que la IA debe tener un modelo general de valores, prefiero la idea de la IA aplicada a valores y valores específicos. Debes personalizar aún más los modelos para preservar los valores en cada situación, el contexto y las características de los datos a copiar.

Las empresas tienen la misión de revelar los detalles fundamentales de sus datos de participación en la inteligencia artificial.

PAG. ¿Qué es la regulación y la transparencia?

A. Las empresas deben revelar los detalles fundamentales de sus datos de participación en la IA. Lo cual no hará público todo, pero demostrará a los auditores independientes que está en sus datos y que utiliza un contexto real, sin estereotipos.

PAG. ¿Qué hace que quienes necesitan un descanso del desarrollo de la IA?

A. Es algo raro. Como resultado, llegó un grupo que advirtió de los riesgos, pero era el que tendría más poder para influir en las políticas. No lo voy a hacer bien, voy a poder hacerlo. Está claro que hemos llegado a un punto en el que la IA es beneficiosa y solíamos hablar antes de hacer daño a la gente. Pero lo seguro es que hay gente que está muy aburrida, gente que no es considerada para ellos, y ese soy yo quien también lo siente. Por supuesto, ahora tiene un sitio sobre la mesa para discutir las regulaciones.

PAG. ¿Es usted optimista sobre el futuro de la IA?

A. No, soja, no. Porque es por eso que las personas con mayor probabilidad de verse perturbadas por la tecnología no están en lugares donde existan regulaciones ni tomen decisiones en las grandes tecnologías. Porque es así, tenemos ética desde hace cuatro años, pero eso no significa que dentro de 10 años seamos mejores. Hay muchos caminos beneficiosos para la humanidad y no son los que hay.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.

Suscríbete para seguir el curso

Límites del pecado de Lee

_