Page 36 - revista 2019
P. 36
Revista de la Facultad de Ingeniería, Año 6, Número 1
Ética en Inteligencia Artificial
Existen una infinidad de problemas asociados o de alguna forma vinculados
con conceptos de ética que se le achacan a la inteligencia artificial. Comencemos por
hablar de ética; la ética como tal es un concepto muy difícil de definir y poder
delimitar con claridad. Existe una construcción social del significado del concepto
ético; pero, sin embargo, distintos autores presentan distintos puntos de vista que de
alguna forma mueven el límite ético y esa pequeña variación hace la diferencia. De
igual forma, algo ético en una sociedad específica puede no serlo en otra, por lo que
hace el concepto de ética no es universal, sino que se regula por los valores
determinados por un momento particular de la sociedad.
Analicemos algunos ejemplos de aplicaciones de la inteligencia artificial donde
desde el punto de vista ético parece haber algún problema a solucionar.
El primer ejemplo es el chatbotTay; por el año 2016 Microsoft hizo una prueba
de un bot que mediante técnicas de inteligencia artificial aprendía en base a los
comentarios que los usuarios hacían mediante Tweeter. El entrenamiento de este bot,
se realizó mediante conversaciones de gente en edades entre 18 y 24 años y la
finalidad del experimento era aprender la forma de interactuar o comunicarse los
usuarios en la red.
Algunos artículos hablan de un par de días, otros que solo 24 horas después
de la puesta en funcionamiento, el bot comenzó a mostrar comportamientos con
rasgos xenófobos, racistas y como si esto fuera poco; en su poca vida pública llego a
publicar frases nazis (BBC Mundo, 2016). Al tiempo y luego de haber analizado los
motivos del comportamiento del bot; los analistas llegaron a la conclusión que el bot
no estaba preparado para algo muy importante que solo se potencia en internet. Lo
primero es el lado perverso de la gente donde Internet y el anonimato (o la carencia
de contacto real) disminuye los valores empáticos o éticos y saca lo peor del ser
humano; y por último los trolls, un gran problema que indudablemente acecha en
casi todas las redes sociales (González, M., 2016).
El segundo ejemplo que me gustaría presentar se encuentra relacionado con
las tecnologías de reconocimiento fácil y la aplicación de técnicas de inteligencia
artificial para catalogar y prever el riesgo respecto a la seguridad en función de las
características físicas, género, edad, país, raza, etc.de los individuos.
Un algoritmo que utilice estás características como datos de entrenamiento
para determinar la probabilidad que un individuo cometa un crimen o bien obtenga
un crédito basado en su etnia, país, etc. puede ser muy peligroso, esto se debe a que
no existe suficiente información sobre nuestra etnia, país, etc. El resultado final
puede ser una mala clasificación en base al color de piel, acento, etc. o incluso los
algoritmos no van a ser más exactos y afectar a individuos que no debería afectar. En
resumen, hay que asegurarse que los datos de entrenamiento representan
correctamente a todos los individuos, no introducen sesgos (bias) y no existe un
sesgo que haga que el algoritmo realice una clasificación incorrecta en función de las
características (Florez, O.U. ,2017).
Conclusiones
Para finalizar me gustaría compartir las siguientes reflexiones. El conocimiento
referente a tecnologías de inteligencia artificial se encuentra rompiendo limites, en
constante evolución y crecimiento. Esta tecnología vino para quedarse y difícilmente
exista una forma para detener su avance si es que alguien quisiera intentarlo.
La industria cada vez más adopta prácticas que incluyen sistemas con
inteligencia artificial y se espera que en los próximos años esta tendencia continúe.
35