logotipo yml iurister en horizontal
Generic selectors
Exact matches only
Buscar en el sitio
Buscar en contenido
Post Type Selectors
Tecnologia de reconocimiento emocional

La tecnología de reconocimiento emocional

Riesgos en materia de protección de datos

En el artículo de hoy vamos a centrarnos en la tecnología de reconocimiento emocional y los riesgos en materia de protección de datos.

Sabemos que la comunicación no verbal está cargada de significado y las nuevas tecnologías y la era del dato se pueden alimentar de ese lenguaje que no expresamos, pero que está cargado de información valiosa.

Con el auge de la Inteligencia Artificial ¿Cómo protegemos nuestros derechos más fundamentales frente a empresas que podrían leer nuestros pensamientos?

¿Qué es la tecnología de reconocimiento emocional?

La tecnología emocional (FER por sus siglas en inglés, Facial Emotion Recognition) es un tipo de tecnología que analiza las expresiones faciales para revelar información relevante sobre el estado emocional del sujeto analizado.

Es un hecho que la rama de la IA denominada affective computing o computación afectiva puede tener una gran utilidad en el reconocimiento de las emociones de usuarios y consumidores sobre los servicios o productos de una empresa o para procesos en los que el eje decisorio sea el ser humano.

Por lo que son muchas las empresas, grandes o pequeñas, las que ya desarrollan este tipo de tecnologías para obtener cada vez más información de los usuarios.

La información puede adquirirse de foto y videos de los usuarios y se realiza en tres pasos:

  • Detección de rostros
  • Detección de expresiones faciales
  • Clasificación de expresiones a un estado emocional

Además, esta tecnología puede añadirse al análisis de datos biométricos (voz, texto, datos de salud de sensores o patrones de flujo sanguíneo inferidos de la imagen, movimientos pupilares, etc) con los riesgos en la privacidad que esto conlleva.

Riesgos en materia de protección de datos

Los primeros riesgos que deberemos tener en cuenta serán aquellos que le son propios a la tecnología utilizada.

Si se trata de Inteligencia Artificial analizaremos los riegos inherentes de esa tecnología, si, además, hay un tratamiento de datos biométricos aplicaremos las normativas oportunas para mitigar riesgos.

Los riesgos específicos de la FER se circunscriben en 6 puntos, según el TechDispatch #1/2021 – Reconocimiento de emociones faciales:

  • Necesidad y proporcionalidad: analizaremos, en primer lugar, si la utilización de esta tecnología es la menos intrusiva para conseguir el objetivo que buscamos. Para ello habrá que realizar el juicio o evaluación de necesidad y proporcionalidad, teniendo en cuenta la calidad del dato y el tratamiento que se le va a dar.
  • Precisión del dato: como toda teoría, la de las emociones, esta es refutable y puede contener información imprecisa, lo que dará lugar a análisis erróneos. Debemos añadir también que ese análisis de FER se realiza sin contexto de la emoción. Estos factores se agravan cuando damos los resultados como hechos, sin realizar una valoración o evaluación que nos facilite más información de cada contexto.
  • Equidad: los problemas de sesgos se hacen más patentes cuando la información con la que entrenamos a la IA es parcial y no es representativa, dando lugar a situaciones discriminatorias o completamente diferentes a la realidad, por prescindir de condiciones médicas o impedimentos físicos que repercutan en los músculos faciales.
  • Transparencia y control: las cámaras nos rodean, y no tiene por qué ser las que vemos de forma directa en espacios públicos o privados, las cámaras de los dispositivos móviles pueden captar de forma remota expresiones. Aquí nos encontramos con la imposibilidad de conocer, quién, cuándo, cómo o hasta cuándo van a tratar los datos que se capten remotamente, perdiendo el control sobre el tratamiento.
  • Tratamiento de categorías especiales de datos personales: el uso de tecnología FER, en según qué circunstancias o lugares, pueden ser reveladoras de datos sensibles, no es lo mismo la captura de emociones en un centro comercial en circunstancias habituales que un mitin político. También existen riesgos en el estudio de emociones que determinen alteraciones de psique o análisis de emociones durante periodos prolongados de tiempo que pueden inducir a datos o pronósticos sanitarios.
  • Elaboración de perfiles y toma de decisiones automatizadas: sabemos que estos dos tipos de tratamiento están expresamente prohibidos por el RGPD, salvo autorización expresa e informada del interesado. Este tipo de tratamientos pueden facilitar la manipulación del individuo y modificar su comportamiento.

Pirámide de criticidad

La pirámide de la criticidad ayuda a determinar si el riesgo que se asume en el uso de esta tecnología es aceptado.

La pirámide estaría dividida en cuatro niveles:

1º Riesgo inaceptable

son sistemas de IA que suponen una amenaza para las personas y serán prohibidos. Ya que suponen la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, puntuación social, sistemas de identificación biométrica en tiempo real y a distancia, reconocimiento facial, etc.

2º Alto riesgo

en esta categoría entrarían aquellos sistemas de IA que afecten negativamente a la seguridad o a los Derechos Fundamentales, deberán estar sometidos a controles y evaluaciones antes y durante la comercialización y ciclo vida. A su vez, se subdividirán en dos categorías:

  • Productos sujetos a la legislación de la UE sobre seguridad de los productos: juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  • Los que deben registrarse en una base de datos de la UE: identificación biométrica y categorización de personas físicas, gestión y explotación de infraestructuras críticas, educación y formación profesional, empleo, gestión de trabajadores y acceso al autoempleo, acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas, aplicación de la ley, gestión de la migración, el asilo y el control de fronteras y la asistencia en la interpretación jurídica y aplicación de la ley.
3º Riesgo limitado

Son aquellos sistemas que estarán sujetos a requisitos de transparencia, entre los que se encuentran las IA generativas, tipo ChatGPT, que deberán revelar que el contenido ha sido generado por la IA. De esa forma se deberá evitar la generación de contenido ilegal y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

4º Riesgo mínimo

Resto de aplicaciones de sistemas de IA que no están sujetas a obligaciones específicas.

De esta forma, esta categorización nos puede dar un mapa de calor para evaluar los sistemas de IA al que debemos añadir el análisis de los riesgos inherentes a la privacidad, sin perjuicio de otras regulaciones sectoriales que sean de aplicación.

Conclusión

Si quieres conocer más acerca de los posibles riesgos en los que puede incurrir el uso de inteligencia artificial, desde YML Iurister, como proveedores de servicios legales alternativos, podemos ayudarte.

Contacta con nosotros.

Företagsjuridik/
Affärsjuridik

Om ditt företag är baserat i Spanien eller om du ska starta ett företag i Spanien kan du av YML iurister få excellent professionell hjälp med all företagsjuridik och affärsjuridik som gäller i Spanien.

Vi identifierar de viktigaste juridiska frågorna för ditt företags utveckling, med hänsyn speciellt till internationell verksamhet, vi ger råd om rätt implementering av juridiska policyer gällande i Spanien.

Kontakta oss:

+34 639 270 574

info@ymliurister.es

Gracias por tu interés.

Déjanos tu correo electrónico o teléfono y nos pondremos en contacto contigo a la mayor brevedad posible.