Saltar al contenido principal Skip to footer
Cognizant blog

La inteligencia artificial (IA) juega un papel cada vez más importante en nuestras vidas. Muchas veces se trata de asuntos triviales, como recomendar una serie en Netflix o calcular el tiempo de llegada de un Uber. Sin embargo, también es responsable de decisiones cada vez más críticas, como calificar candidatos a un puesto de trabajo, realizar diagnósticos médicos o ayudar en juicios criminales. Por eso, asegurarnos de que la IA se usa para fines legítimos y de forma no discriminatoria es más importante que nunca.

¿Por qué hablar de ética en la inteligencia artificial?
En 2016 saltaron las alarmas en EE.UU., cuando la agencia de noticias ProPublica publicó un estudio sobre COMPAS, un modelo de inteligencia artificial (IA) usado en los juzgados de todo el país para analizar el riesgo de reincidencia criminal. Basándose en un análisis estadístico de miles de casos, el estudio concluía que COMPAS discriminaba sistemáticamente a los acusados afroamericanos, asignándoles equivocadamente un alto riesgo de reincidencia en el 45% de los casos frente a un 23% cuando los acusados eran blancos. Con el auge de la IA en los últimos tiempos, los casos de modelos discriminatorios se han multiplicado, desde algoritmos que deniegan crédito a mujeres a sistemas de reconocimiento facial que se equivocan con minorías étnicas. Ahora que muchas organizaciones trabajan por desplegar modelos de IA a gran escala, entender sus implicaciones éticas y limitaciones es más importante que nunca.

Los riesgos éticos de la IA
El principal y más evidente problema ético de la IA es su uso para fines manifiestamente ilícitos o maliciosos. Un ejemplo reciente es la popularización de los deepfakes, una técnica de IA que permite reemplazar a una persona por otra en imágenes y vídeos con gran realismo. Aunque esta técnica se ha utilizado con éxito para fines legítimos, como mejorar los efectos especiales en el cine, también se ha empleado para crear material pornográfico de celebridades sin su consentimiento, falsificar el discurso de líderes políticos o cometer fraudes bancarios.

En segundo lugar, tenemos las aplicaciones de IA que, sin ser ilegales, pueden plantear dilemas morales. Destaca, por ejemplo, el uso de sistemas de reconocimiento facial para vigilancia masiva, la redacción y difusión automática de fake news o la creación de algoritmos adictivos en redes sociales.
Pero existe un problema más sutil y difícil de atajar. Se trata de aquellas aplicaciones de IA que, aun estando diseñadas para un fin legítimo, acaban, por un fallo de diseño, siendo perjudiciales para una parte de la sociedad. En este grupo tenemos aquellos modelos que, como COMPAS, sufren un sesgo contra un grupo social determinado. Detectar estos problemas puede ser complicado y si no se presta la debida atención, pueden pasarse por alto. Sin embargo, existen algunas técnicas que pueden ayudar a mitigarlos.

Mitigando los riesgos de la IA
Desde el punto de vista técnico, hay varios métodos que ayudan a reducir el riesgo de que un modelo de IA tenga sesgos perjudiciales. En primer lugar, se puede evitar usar datos sensibles, como género, raza o religión, para crear los modelos. De este modo, el modelo no tendrá en cuenta estos atributos y será más difícil que se produzca un sesgo. Una vez se ha generado el modelo, es importante comprobar que los resultados son igual de fiables para todos los grupos sociales. Por ejemplo, en el caso de COMPAS, se podría verificar que la tasa de error para sospechosos blancos y afroamericanos sea similar. Por último, también es conveniente comprobar que los resultados del modelo son independientes de los atributos sensibles. Por ejemplo, que el riesgo de impago de un crédito no cambia si se es “hombre” o “mujer”.

En cualquier caso, las soluciones técnicas son importantes, pero no suficientes. En este sentido, cada vez más empresas cuentan con comités éticos y directrices que velan porque se haga un uso responsable de la IA. A la labor del sector privado se han unido recientemente distintas regulaciones estatales, como el trabajo pionero del Acta de IA de la Unión Europea, así como organizaciones sin ánimo de lucro como OpenAI, dedicadas a fomentar el impacto positivo de la IA.

Hacia una IA más ética
El estudio de la ética en sistemas de IA, aunque reciente, es un campo en plena expansión, síntoma de que tanto ciudadanos como empresas y gobiernos van tomando conciencia de la importancia de hacer un uso responsable de la IA en un mundo en el que va a jugar un papel cada vez más crítico.

Una IA útil es aquella en la que puedes confiar. Por eso, desde Cognizant creemos que una IA responsable es requisito indispensable para una IA efectiva. Estamos convencidos de que, bien gobernada, la IA puede llegar a tener un impacto social positivo sin precedentes.

Este tema se abordará en profundidad en la mesa redonda ‘Ética e Inteligencia Artificial: ¿eternas enemigas o firmes aliadas?‘, que se celebra como preludio a la nueva edición de MorcillaConf, el evento de tecnología de referencia en Castilla y León que se cleebra este fin de semana en Burgos.


Cognizant España

Descubre de la mano de nuestros expertos en tecnología y negocio las últimas tendencias de TI para cada industria.



Destacado

Últimos artículos
Artículos relacionados