Construyendo una mejor sociedad con una mejor IA

La inteligencia artificial (IA) tiene el enorme potencial de ofrecer innovaciones para mejorar todas las facetas de la sociedad, desde los sistemas de ingeniería heredados hasta la atención médica y los procesos creativos en las artes y el entretenimiento. En Hollywood, por ejemplo, los estudios están utilizando IA para descubrir y medir el sesgo en los guiones, las mismas herramientas que los productores y escritores necesitan para crear medios más equitativos e inclusivos. Sin embargo, la IA es tan inteligente como los datos en los que se entrena, y esos datos reflejan sesgos de la vida real. Para evitar perpetuar los estereotipos y la exclusividad, los tecnólogos están abordando la equidad y la inclusión tanto en la vida real como en sus innovaciones.

Sesgo innato en los humanos.

Mientras los tecnólogos buscan usar IA para encontrar soluciones centradas en el ser humano para optimizar las prácticas de la industria y la vida cotidiana por igual, es fundamental tener en cuenta las formas en que nuestros sesgos innatos pueden tener consecuencias no deseadas.

"Como seres humanos, somos muy sesgados", dice Beena Ammanath, directora global del Instituto de IA de Deloitte y líder de tecnología y ética de IA en Deloitte. “Y a medida que estos sesgos se integran en los sistemas, existe una gran probabilidad de que sectores de la sociedad se queden atrás (minorías subrepresentadas, personas que no tienen acceso a ciertas herramientas) y puede generar más inequidad en el mundo. .â€

Los proyectos que comienzan con buenas intenciones, para crear resultados iguales o mitigar las desigualdades pasadas, aún pueden terminar sesgados si los sistemas están entrenados con datos sesgados o si los investigadores no tienen en cuenta cómo sus propias perspectivas afectan las líneas de investigación.

Hasta ahora, el ajuste de los sesgos de la IA a menudo ha sido reactivo con el descubrimiento de algoritmos sesgados o datos demográficos subrepresentados que surgieron después del hecho, dice Ammanath. Sin embargo, las empresas ahora deben aprender a ser proactivas, mitigar estos problemas desde el principio y asumir la responsabilidad por los errores en sus esfuerzos de IA.

Sesgo algorítmico en IA

En IA, el sesgo aparece en forma de sesgo algorítmico. “El sesgo algorítmico es un conjunto de varios desafíos en la construcción de un modelo de IA”, explica Kirk Bresniker, arquitecto jefe de Hewlett Packard Labs y vicepresidente de Hewlett Packard Enterprise (HPE). “Podemos tener un desafío porque tenemos un algoritmo que no es capaz de manejar diversas entradas, o porque no hemos recopilado conjuntos de datos lo suficientemente amplios para incorporarlos en el entrenamiento de nuestro modelo. En cualquier caso, tenemos datos insuficientes”.

El sesgo algorítmico también puede provenir de un procesamiento inexacto, la modificación de datos o alguien que inyecta una señal falsa. Ya sea intencional o no, el sesgo da como resultado resultados injustos, tal vez privilegiando a un grupo o excluyendo a otro por completo.

Como ejemplo, Ammanath describe un algoritmo diseñado para reconocer diferentes tipos de zapatos, como chanclas, sandalias, zapatos formales y zapatillas deportivas. Sin embargo, cuando se lanzó, el algoritmo no podía reconocer los zapatos de mujer con tacones. El equipo de desarrollo era un grupo de recién graduados universitarios, todos hombres, que nunca pensaron en entrenarse en los talones de los zapatos de mujer.

"Este es un ejemplo trivial, pero te das cuenta de que el conjunto de datos era limitado", dijo Ammanath. “Ahora piense en un algoritmo similar usando datos históricos para diagnosticar una enfermedad o una enfermedad. ¿Qué pasa si no se entrenó en ciertos tipos de cuerpo o ciertos géneros o ciertas razas? Esos impactos son enormes.

Críticamente, dice que si no tienes esa diversidad en la mesa, te perderás ciertos escenarios”.

Mejor IA significa autorregulación y pautas éticas

Simplemente obtener más conjuntos de datos (y más diversos) es un desafío formidable, especialmente porque los datos se han vuelto más centralizados. El intercambio de datos plantea muchas preocupaciones, entre las que se encuentran la seguridad y la privacidad.

"En este momento, tenemos una situación en la que los usuarios individuales tienen mucho menos poder que las grandes empresas que recopilan y procesan sus datos", dice Nathan Schneider, profesor asistente de estudios de medios en la Universidad de Colorado Boulder.

Es probable que las leyes y regulaciones ampliadas eventualmente dicten cuándo y cómo se pueden compartir y usar los datos. Pero la innovación no espera a los legisladores. En este momento, las organizaciones que desarrollan IA tienen la responsabilidad de ser buenos administradores de datos, protegiendo la privacidad individual mientras se esfuerzan por reducir el sesgo algorítmico. Debido a que la tecnología está madurando tan rápido, es imposible confiar en las regulaciones para cubrir todos los escenarios posibles, dice Ammanath de Deloitte. “Vamos a entrar en una era en la que se equilibrará entre adherirse a las regulaciones existentes y, al mismo tiempo, autorregularse”.

Este tipo de autorregulación significa elevar el nivel de toda la cadena de suministro de tecnologías que intervienen en la creación de soluciones de IA, desde los datos hasta la capacitación y la infraestructura requerida para hacer posibles esas soluciones. Además, las empresas deben crear vías para que las personas de todos los departamentos planteen sus preocupaciones sobre los sesgos. Si bien es poco probable que se pueda eliminar por completo el sesgo, las empresas deben auditar periódicamente la eficacia de sus soluciones de IA.

Debido a la naturaleza altamente contextual de la IA, la autorregulación tendrá un aspecto diferente para cada empresa. HPE, por ejemplo, estableció pautas éticas de IA. Un conjunto diverso de personas de toda la empresa pasó casi un año trabajando juntos para establecer los principios de la empresa para la IA, y luego examinaron esos principios con un amplio conjunto de empleados para garantizar que pudieran seguirse y que tuvieran sentido para la empresa. cultura corporativa.

"Queríamos aumentar la comprensión general de los problemas y luego recopilar las mejores prácticas", dice Bresniker de HPE. “Este es el trabajo de todos: estar alfabetizados en esta área†.

Los tecnólogos han alcanzado una madurez con la IA que ha progresado desde la investigación hasta las aplicaciones prácticas y la creación de valor en todas las industrias. La creciente omnipresencia de la IA en la sociedad significa que las organizaciones ahora tienen la responsabilidad ética de proporcionar soluciones sólidas, inclusivas y accesibles. Esta responsabilidad ha llevado a las organizaciones a examinar, a veces por primera vez, los datos que están incorporando a un proceso. “Queremos que las personas establezcan esa providencia, esa confianza medible en los datos que ingresan”, dice Bresniker. “Tienen la capacidad de dejar de perpetuar las desigualdades sistémicas y crear resultados equitativos para un futuro mejor”.

Este contenido fue producido por Insights, el brazo de contenido personalizado de MIT Technology Review. No fue escrito por el equipo editorial de MIT Technology Review.