Page 56 - Reflexiones sobre Ingeniería 2023D-2024
P. 56
Revista de la Facultad de Ingeniería, Año 8, Número 1
El manejo de datos personales, sensibles o confidenciales de las personas u
organizaciones genera que no siempre podamos utilizar las aplicaciones disponibles
(todas soluciones en la nube), ya que pueden existir limitaciones en cuanto al
alojamiento de los datos o los resultados del procesamiento solicitado. Otro desafío
son los datos con los que se entrenaron estos modelos, datos públicos disponibles en
internet, como libros, sitios web u otros sitios públicos. Esto puede generar errores al
momento de realizar consultas u obtener resultados sesgados. En general no se
muestran las fuentes de las cuales se creó la solución, lo que dificulta la interpretación
de los resultados. Esto igualmente no es exclusivo de estas inteligencias artificiales,
sino que las redes neuronales tienen esta característica. También se han notado las
llamadas “alucinaciones”, respuestas que devuelve la Inteligencia Artificial que no
parecería estar justificada por sus datos de entrenamiento. Se pueden ver ejemplos de
artículos asociados a personas que no existen, o imágenes con inconsistencias como
manos con más de cinco dedos. Esto requiere tener cuidado al utilizar estas
herramientas para consultar información de la cual no tenemos conocimiento.
Ley de Inteligencia Artificial de la Unión Europea (UE)
La UE viene trabajando desde 2021 en una ley de inteligencia artificial. Actualmente se
encuentran redactando el texto final de la ley.
El planteo se basa en clasificar las herramientas según su nivel de riesgo hacia las
personas, que definen obligaciones y prohibiciones.
Esto no es solamente para nuevas soluciones sino también para los sistemas
existentes.
Se plantean cuatro niveles de riesgo:
Riesgo inaceptable: prácticas prohibidas de Inteligencia Artificial
o Son aquellos sistemas que implican actos explícitos que atenten a la
seguridad, forma de vida o derechos de las personas.
Riesgo alto: sistemas de Inteligencia Artificial regulados de alto riesgo
o Son aquellos sistemas que puedan causar cierto impacto en la seguridad
de las personas o sus derechos fundamentales.
Riesgo limitado: obligaciones de transparencia
o Son aquellos sistemas que interactúan con humanos, como chatbots o
sistemas de reconocimiento biométrico, que deben cumplir con una serie
de obligaciones de transparencia.
Riesgo bajo o mínimo: sin obligaciones
o Son sistemas que a priori no se visualizan niveles de riesgo, pero que se
espera que sigan el futuro código de conducta para este tipo de
aplicaciones.
Conclusiones
A pesar que la Inteligencia Artificial tiene muchos años, en el último año, por el acceso
a las Inteligencias Artificiales Generativas, pasaron a estar presentes en todos los
ámbitos.
La polémica sobre los roles que estas herramientas vienen a sustituir pasa nuevamente
a estar en discusión, ya que se empezó a visualizar que no son solo la automatización
de tareas mecánicas y repetitivas, sino también aquellas que requieren toma de
decisiones, (según el contexto), dichas herramientas si las pueden realizar.
54