¿Sabes que legislación afectará mañana a las tecnologías que estás desarrollando hoy?
¿Qué pasa cuando aparece una nueva tecnología?
Cuando aparece una nueva tecnología normalmente no hay legislación que se le pueda aplicar directamente, sino que al principio se intenta adaptar la existente. El problema es que muchas de las funcionalidades, funciones o situaciones que provoca esa tecnología no están previstos en la legislación vigente. Esta situación provoca, a menudo, vacíos legales que son aprovechados por las empresas que desarrollan o utilizan esas tecnologías para crear nuevos modelos de negocio, que no tienen ninguna regulación. Lo que, a veces, genera conflictos porque se entra en competencia con empresas establecidas que tienen una regulación que deben cumplir mientras que los recién llegados están exentos de ello.
Tecnologías digitales y su legislación
Este es un campo donde es evidente la obsolescencia “tecnológica” de la legislación, es decir, es una legislación que no está preparada para esas nuevas tecnologías. Uno de los actores geopolíticos que tiende a desarrollar regulación para proteger a sus ciudadanos es la Unión Europea, y en el ámbito de las tecnologías digitales no se quiere quedar atrás en lo que se refiere a regular esas tecnologías.
Inteligencia artificial y su legislación
Una de las tecnologías en las que se está actuando con mayor visión e incidencia es la inteligencia artificial, donde en el último año se han desarrollado una serie de actuaciones destacables como las siguientes:
En octubre de 2020 se aprobó una resolución relativa a la necesidad de desarrollar un “Régimen de responsabilidad civil en materia de inteligencia artificial”. Esto es especialmente importante en el ámbito de los vehículos autónomos en los que en caso de accidente se presenta la diferencia sustancial en que el conductor no es una persona física sino una “entidad digital” formada por diferente software relacionado y controlado mediante diferentes componentes de inteligencia artificial. En esta resolución lo que se propone es crear un Reglamento europeo, es decir, un instrumento legislativo de obligado cumplimiento por todos los países de la Unión Europea en su fecha de aplicación. Este reglamento tendrá el significativo título de “relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial”.
En abril de 2021 la Comisión europea propuso un texto de Reglamento sobre la Inteligencia Artificial que va a ser objeto de tramite para su discusión y aprobación en el Parlamento Europeo. Con este reglamento se pretende dotar a los ciudadanos europeos de unas garantías sobre los sistemas que usen Inteligencia Artificial dentro de la Unión Europea. Con este reglamento se quieren desarrollar una serie de normas para prevenir y evitar una serie de riesgos específicos que se considera pueden suponer o generar los sistemas de Inteligencia Artificial. Con esta legislación y sus normas asociadas se pretende liderar la estandarización de la Inteligencia Artificial en lo que se refiere a la protección y seguridad de las personas, de la sostenibilidad de la tecnología, de la inclusión y no discriminación de todos los ciudadanos y de la fiabilidad de los sistemas.
En este reglamento se establece una estrategia para su aplicación basada en el riesgo. Empezando en el nivel más alto que serán los sistemas de “riesgo inadmisible” que quedarán prohibidos. Entre estos sistemas se consideran los que supongan una amenaza clara para la seguridad de las personas, los que puedan amenazar los medios de subsistencia de las personas y los que afecten a los derechos de las personas. Es evidente que la prohibición del uso en la Unión Europea de sistemas que puedan desarrollar estas funcionalidades tendrá consecuencias en las diferentes aplicaciones que uno puede tener en su ordenador, pero especialmente en muchas de las aplicaciones que se pueden descargar y utilizar hoy en día en los teléfonos móviles y tabletas, y que desde el momento en que el reglamento sea de aplicación pasaran a estar prohibidas.
En la escala de riesgo, a continuación, se encuentran los sistemas definidos como de “alto riesgo” entre los que se encuentran los que vayan a utilizarse en:
- Las infraestructuras críticas, y que puedan poner en peligro la vida y la salud de los ciudadanos;
- la formación educativa o profesional, y que puedan determinar el acceso a la educación y la carrera profesional de una persona;
- los componentes de seguridad de los productos;
- el empleo, la gestión de trabajadores y el acceso al trabajo por cuenta propia;
- los servicios públicos y privados esenciales;
- la aplicación de las leyes, y que pueden interferir con los derechos fundamentales de las personas;
- la gestión de la migración, el asilo y el control de las fronteras;
- la administración de justicia y los procesos democráticos.
Para todas estas situaciones el reglamento define unas obligaciones estrictas que deberán desarrollarse y validarse antes de que se comercialicen y usen esos sistemas en el mercado de la UE.
Se prevé que este reglamento entre en aplicación a los veinticuatro meses desde la fecha de aprobación del reglamento y su publicación en el DOUE.
Esto supondrá que todos aquellos que prevean que sus sistemas de IA se van a comercializar y usar dentro cuando sea de aplicación deberían analizar bajo que contexto de riesgo se ubica lo que han desarrollado o van a desarrollar y actúen en consecuencia.
Este es un ejemplo de como la legislación afecta a las tecnologías y también de la necesidad de las empresas de hacer una planificación legislativo a corto y medio plazo en lo que se refiere a sus tecnologías.