Page 56 - Reflexiones sobre Ingeniería 2023D-2024
P. 56

Revista de la Facultad de Ingeniería, Año 8, Número 1
            El  manejo  de  datos  personales,  sensibles  o  confidenciales  de  las  personas  u
            organizaciones genera que no siempre podamos utilizar las aplicaciones disponibles
            (todas  soluciones  en  la  nube),  ya  que  pueden  existir  limitaciones  en  cuanto  al
            alojamiento de los datos o los resultados del procesamiento solicitado. Otro desafío
            son los datos con los que se entrenaron estos modelos, datos públicos disponibles en
            internet, como libros, sitios web u otros sitios públicos. Esto puede generar errores al
            momento  de  realizar  consultas  u  obtener  resultados  sesgados.  En  general  no  se
            muestran las fuentes de las cuales se creó la solución, lo que dificulta la interpretación
            de los resultados. Esto igualmente no es exclusivo de estas inteligencias artificiales,
            sino que las redes neuronales tienen esta característica. También se han notado las
            llamadas  “alucinaciones”,  respuestas  que  devuelve  la  Inteligencia  Artificial  que  no
            parecería estar justificada por sus datos de entrenamiento. Se pueden ver ejemplos de
            artículos asociados a personas que no existen, o imágenes con inconsistencias como
            manos  con  más  de  cinco  dedos.  Esto  requiere  tener  cuidado  al  utilizar  estas
            herramientas para consultar información de la cual no tenemos conocimiento.

            Ley de Inteligencia Artificial de la Unión Europea (UE)

            La UE viene trabajando desde 2021 en una ley de inteligencia artificial. Actualmente se
            encuentran redactando el texto final de la ley.
            El planteo se basa en clasificar las herramientas  según su  nivel de riesgo hacia  las
            personas, que definen obligaciones y prohibiciones.
            Esto  no  es  solamente  para  nuevas  soluciones  sino  también  para  los  sistemas
            existentes.
            Se plantean cuatro niveles de riesgo:
                  Riesgo inaceptable: prácticas prohibidas de Inteligencia Artificial
                       o  Son  aquellos  sistemas  que  implican  actos  explícitos  que  atenten  a  la
                           seguridad, forma de vida o derechos de las personas.
                  Riesgo alto: sistemas de Inteligencia Artificial regulados de alto riesgo
                       o  Son aquellos sistemas que puedan causar cierto impacto en la seguridad
                           de las personas o sus derechos fundamentales.
                  Riesgo limitado: obligaciones de transparencia
                       o  Son aquellos sistemas que interactúan con humanos, como chatbots o
                           sistemas de reconocimiento biométrico, que deben cumplir con una serie
                           de obligaciones de transparencia.
                  Riesgo bajo o mínimo: sin obligaciones
                       o  Son sistemas que a priori no se visualizan niveles de riesgo, pero que se
                           espera  que  sigan  el  futuro  código  de  conducta  para  este  tipo  de
                           aplicaciones.

            Conclusiones

            A pesar que la Inteligencia Artificial tiene muchos años, en el último año, por el acceso
            a  las  Inteligencias  Artificiales  Generativas,  pasaron  a  estar  presentes  en  todos  los
            ámbitos.
            La polémica sobre los roles que estas herramientas vienen a sustituir pasa nuevamente
            a estar en discusión, ya que se empezó a visualizar que no son solo la automatización
            de  tareas  mecánicas  y  repetitivas,  sino  también  aquellas  que  requieren  toma  de
            decisiones, (según el contexto), dichas herramientas si las pueden realizar.








            54
   51   52   53   54   55   56   57   58   59   60   61