Articulo regulacion-IA
Derecho

Regulación de la IA y ética en el mundo digital: el reto legal que supone

Ruth Almaraz Palmero

El desarrollo de una regulación de la IA a nivel global es un desafío. Los gobiernos de todo el mundo establecen normativas que abordan los riesgos que conllevan las nuevas tecnologías, principalmente en la Unión Europea, ya que no existe un marco legal global armonizado.


Desde el punto de vista de la ética en el mundo digital, no se puede imponer el reconocimiento facial o decisiones automatizadas sobre el acceso al crédito sin poner barreras, ya que debe haber transparencia y seguridad en los sistemas de IA que suponen un alto riesgo para Derechos Fundamentales tales como la protección de datos y la privacidad, la información veraz y la seguridad y transparencia..

Crecimiento de la IA y sus implicaciones legales

La IA está creciendo enormemente con la IA generativa como tecnología innovadora. Esta nueva IA generativa debe regularse para gestionar los riesgos de su uso para asegurar que se utilice de manera segura y responsable. No hay seguridad de los datos ni veracidad de la información que ofrece y  hay posibilidades de pérdida de empleos e implicaciones legales sobre los derechos de propiedad intelectual.

Riesgos de una IA no regulada en los negocios y la sociedad

Los riesgos éticos más significativos de la IA para la sociedad son los datos falsos o sesgados originados por bases de datos que confundan al público y acaben ofreciendo información falsa o inexacta lo cual producirá inseguridad y desconfianza en las empresas que usen IA y den ese tipo de información no segura o incierta o irrelevante.

Relación entre regulación IA y ética digital en el mundo empresarial: principales desafíos legales

Las empresas que usen IA generativa y utilicen un software muy avanzado pueden ser más innovadoras a nivel tecnológico, pero corren el riesgo de perder su reputación si dan una información sesgada u ofrecen al público datos erróneos o inexactos en los que no puedan confiar.

Las decisiones basadas en algoritmos pueden interferir en los deseos de los consumidores y manipular sus deseos de manera que las ventas de una empresa pueden ser mucho más altas usando este tipo de algoritmos, lo cual plantea dilemas éticos en una sociedad global como la nuestra en la que debe haber unas normas deontológicas básicas que sean respetadas por todos.

La mayor preocupación que causa la IA generativa es el riesgo de alucinaciones cuando la IA genera respuestas que no se basan en datos de entrenamiento sino en información incorrecta o irrelevante. Estas respuestas inexactas llevan a la desinformación y a la confusión y esto dañará la confianza del cliente de la empresa. Además, a veces es muy difícil verificar los hechos y los datos proporcionados por la IA.

Internamente las empresas deben invertir en capacitar a sus trabajadores y en proporcionar herramientas de IA verificadas y conformes a la ética. Las soluciones que permiten obtener grandes beneficios en poco tiempo a través de la IA no son seguras. La complejidad del sistema digital moderno implica problemas de seguridad que deben controlarse con revisiones de la IA mediante empresas que sean expertas en este tipo de soluciones, auditando los problemas que genera la IA y corrigiendo todo tipo de sesgos y desinformaciones o informaciones irrelevantes o inexactas que la IA pueda ir proporcionando.

Propiedad intelectual y derechos sobre los algoritmos de IA

En el contexto de la IA, la transparencia adquiere un papel fundamental, especialmente en lo que respecta a la generación, utilización y protección de los derechos de propiedad intelectual.

La opacidad de los algoritmos y el funcionamiento interno de los sistemas de IA plantea desafíos significativos en términos de responsabilidad, ética y toma de decisiones informadas. Los derechos sobre las marcas, las patentes y los derechos de autor pueden ser vulnerados fácilmente utilizando herramientas que contengan IA.

La inteligencia artificial ha transformado la manera en que se generan, utilizan y protegen los derechos de propiedad intelectual. Con la automatización de procesos, el análisis de big data y la creación de obras generadas por IA, se plantean interrogantes sobre la titularidad y la protección legal de estas creaciones.  

También se plantea si los derechos sobre los algoritmos de la IA son titularidad de los humanos que generaron el programa de esa IA o siendo la propia IA la que genera el desarrollo de los algoritmos de manera autónoma se estarían generando unos derechos de autor para la propia IA. En la UE esta cuestión se ha resuelto de momento considerando que la IA no tiene derechos puesto que es únicamente una herramienta que se usa por el ser humano.

Transparencia y explicabilidad de los sistemas de inteligencia artificial

La transparencia en la IA es esencial para comprender cómo se generan las obras de creación automática, cómo se toman decisiones basadas en algoritmos y cómo se aplican los derechos de propiedad intelectual en un escenario digital. La claridad en estos procesos es fundamental para garantizar la protección de los derechos de los creadores, así como para promover la confianza y la legitimidad de las creaciones generadas por IA.

El surgimiento de la IA explicable tiene como objetivo abordar el problema de la falta de transparencia y de los sesgos a través de la medición de la interpretabilidad y la claridad de un modelo. Esta transparencia permite a los usuarios comprender una respuesta y los motivos de esta respuesta y darles acceso a los grupos marginados de esta claridad de la IA. La OCDE ha puesto en marcha el observatorio de políticas de la IA para dar a conocer estas iniciativas de desarrollo ético de la IA.

Protección de datos y privacidad en el uso de IA

Los clientes a veces comparten información confidencial con las empresas y esta información se almacena,  pudiendo utilizarse potencialmente de manera incorrecta o los empleados pueden revelar información confidencial de manera involuntaria a través de comandos. Es necesario por tanto anonimizar o pseudo nimizar los datos de los clientes para que no puedan desvelarse sus datos personales o datos sensibles privados que potencialmente puedan usarse de manera incorrecta en un futuro. Es aconsejable eliminar datos de las empresas y no ir acumulándolos mucho tiempo para que éstos no puedan desvelarse en un futuro.

Legislación en la Unión Europea: la Ley de IA (AI Act)

El 12 de julio de 2024 se publicó en el Diario Oficial de la Unión Europea del Reglamento Europeo de Inteligencia Artificial, conocido como EU AI ACT, tras su aprobación el 13 de marzo de ese mismo año. Este reglamento entró en vigor el 1 de agosto 2024, aun así, su implementación total se dará hasta el 12 de julio de 2026, es decir, 24 meses después de su publicación.

El nuevo Reglamento de la UE sobre la Inteligencia Artificial regula los usos de la IA en la Unión Europea de manera ética y de manera transparente de forma que los usuarios de la IA deberán informar de los usos de herramientas con IA en sus propios trabajos o en los desarrollos de sus obras de propiedad intelectual, para que se pueda conocer las fuentes de donde procede la información contenida en los estudios y la autoría de los mismos.

Existen herramientas de comprobación de datos para saber si se ha desarrollado una labor intelectual real de seres humanos únicamente o la información obtenida proviene principalmente de una inteligencia artificial y de datos ya existentes con anterioridad en internet, pudiendo suponer que la información extraída por la IA puede ser inexacta o no verificada por un ser humano.

Regulaciones en EE. UU., China y otros países

Existe una falta de regulación de la IA en países como son Estados Unidos y China donde han preferido no establecer una normativa que impide el desarrollo de la IA generativa en aras de un mayor desarrollo tecnológico e innovativo, no obstante, la inteligencia artificial ha transformado la manera en que se generan, utilizan y protegen los derechos de propiedad intelectual. Con la automatización de procesos, el análisis de big data y la creación de obras generadas por IA, se plantean interrogantes sobre la titularidad y la protección legal de estas creaciones y esto se está estudiando en EEUU y en China.

En relación a la privacidad de datos el sistema legal estadounidense y el chino así como el de otros países de fuera de la UE no la garantiza, por lo que los derechos de privacidad y protección de datos los ciudadanos pueden ser vulnerados, sin que sea prioritario este derecho de privacidad sobre el desarrollo de la IA.

Diferencias entre normativas y retos de armonización legal

Al no existir una normativa internacional ni tratados internacionales ni leyes armonizadas en esta materia, las empresas están invirtiendo en educar a sus equipos y a sus clientes para que el uso de las bases de datos no sea indiscriminado sino estructurado asegurándose de que los datos que tratan son confiables y siendo conscientes de las limitaciones de la IA y de los datos sesgados e inexactos que a veces ofrece.

En un futuro tendrá que realizarse algún tratado internacional para aumentar esfuerzos en regular la IA y el desarrollo tecnológico para que los ciudadanos de todos los países tengan el mismo nivel de protección de sus Derechos Fundamentales y a su vez, el mismo desarrollo tecnológico e innovativo, sin que se obstaculicen los avances de la IA y a su vez salvaguardando los Derechos de privacidad y de datos además de los derechos de propiedad intelectual de los creadores y autores de obras originales.

Formación en ética digital y cumplimiento normativo en IA: Aprende más sobre regulación y ética en IA con el Máster en Derecho Digital y especialízate en regulación IA y ética digital

El Máster en Derecho Digital de OBS Business School te especializa en regulación de la IA y la ética digital,  incluye el estudio del Reglamento Europeo de la IA y su aplicación normativa proporcionando una visión moderna e innovadora con herramientas digitales siendo una escuela de negocios nativa digital

ruth_almaraz.png
Ruth Almaraz Palmero

Profesora de OBS Business School. Abogada, licenciada en Derecho por la Universidad de Alicante. Master en Propiedad Industrial por la Universidad de Alicante. Socia del despacho Aguilera 19 IP Abogados.