Sistemas de inteligencia artificial necesitan el enfoque local para ser más eficientes: Joy Buolamwini
La investigadora y experta en inteligencia artificial expone ante jóvenes becarios de la Fundación Telmex Telcel que acude al encuentro México Siglo XXI que estos sistemas se han construido con sesgos
Para que un sistema de inteligencia artificial, como los que se han estado desarrollando, sea más eficiente, requiere de incorporar el enfoque local, expresó la investigadora y experta Joy Buolamwini.
Durante su participación en el encuentro México Siglo XXI de los becarios de la Fundación Telmex Telcel Mentes que iluminan el futuro, señaló que se debe tener la intención de hacer inteligencia artificial para el servicio de todos.
Y planteó la importancia de crear puntos de acceso para que la gente pueda acceder a la información y la tecnología, y pensar en instalarlos donde esté la gente.
Contó que parte de su investigación surgió cuando explorando un software, su rostro no era identificado por la cámara, solo hasta que utilizó una máscara blanca.
“Literalmente me confronté al no ser detectada por la cámara de la computadora y me pregunté si era solo mi cara que no detectaba sino un patrón más profundo”, expuso.
Con esa experiencia de vida, impulsó otras áreas para la exploración de la ciencia, a pesar de que se le advirtió que no avanzaría en su carrera si metía la discusión de sesgos y discriminación.
Buolamwini expuso que cuando alguien es una minoría, puede alentar a tomar decisiones y no permitir que sean desalentados, como ocurrió con sus investigaciones que ha permitido detectar y corregir, aunque aún todavía hay limitaciones.
“El catalizador para mí fue el 2016 con la elección del Presidente Donald Trump, cuando me pregunté cómo podía aprovechar el conocimiento y las oportunidades y cuál era mi deber con las demás personas”, señaló.
Porque esas limitaciones que se presentaban en los sistemas de reconocimiento facial, añadió, no era un problema pequeño, sino que estaba por generar mayores problemas.
Indicó que esos sesgos y limitaciones en los reconocimientos llevaba a hacer arrestos falsos o a que armas autónomas legales, como los drones, pudieran seleccionar objetivos de ataques equivocados.
Y sumado a ello, añadió, está la inteligencia artificial generativa, sobre cómo cuando se le solicita una imagen, hay una discriminaicón por temas de color de piel y de género.
“Con frecuencia, cuando hablamos de la justicia algorítmica, vemos que la máquina está sesgada, pero las máquinas solo son un sesgo de la sociedad”, indicó.
Por eso importa que desde lo local también se esté trabajando en el desarrollo de la inteligencia artificial, añadió, porque un sistema por más avanzado que esté no va a tomar en cuenta los factores locales.
Y expuso el tema de la salud, en el que dijo que siempre tienen como referencias a personas blancas de países desarrollados para atender una enfermedad, pero no aborda las condiciones locales donde se van a implementar.
“Es importante preguntarnos si lo que nos ofrece satisface a las necesidades de la comunidad y tienen datos representativos con la población con la que vamos a trabajar”, asentó.
Hay asuntos que los sistemas de inteligencia artificial no pueden hacer, agregó, y se necesita el enfoque local para hacer la diferencia, porque tiene un contexto.