_
_
_
_
En colaboración conLa Ley
_

Los seis grandes desafíos regulatorios de la inteligencia artificial

EY analiza qué áreas legales se verán superadas por la capacidad de los robots de pensar y crear por sí mismos

Getty

La revolución que a corto y medio plazo supondrá la aplicación de la inteligencia artificial en todos los ámbitos de las relaciones sociales y económicas ha acelerado el debate sobre cómo debe afrontar la legislación esta nueva realidad. El reto para los juristas es mayúsculo, porque las lagunas y las fricciones con el ordenamiento son innumerables. Prueba de que no se trata de una cuestión lejana o utópica (o distópica, según se mire), es que la recién elegida Comisión Europea ha prometido presentar un proyecto de regulación durante los 100 primeros días de su mandato.

Precisamente, algunos de los desafíos que deberá hacer frente la nueva normativa fueron expuestos ayer en la jornada Inteligencia artificial confiable. Fronteras técnicas, éticas y legales, celebrada en la sede de EY en Madrid.

Responsabilidad

Se denomina inteligencia artificial fuerte a aquella tecnología capaz de tomar, de forma autónoma, decisiones con impacto directo en la realidad. Es el caso de los coches autopilotados, cuya conducción, por ejemplo, puede provocar una colisión con otro vehículo.

Ante los daños que puedan causar este tipo de máquinas, la regulación actual se muestra insuficiente. ¿Por qué? Como explicó Antoni Frigola, counsel de EY Abogados, la inteligencia artificial carece de personalidad jurídicamente reconocida, derechos y obligaciones, por lo que resulta imposible reclamarle a un robot que responda de los daños que haya causado. Una circunstancia, sin embargo, que contrasta con el hecho de que estas máquinas "ya puedan desvincular sus decisiones de su creador", afirmó el letrado.

Más información
El despido de una trabajadora para sustituirla por un robot es improcedente
Los riesgos informáticos y ecológicos, nuevos dolores de cabeza de los directivos

En esta materia, no obstante, ya existen trabajos y propuestas legislativas. En concreto, se han barajado tres: que del daño respondan solidariamente todos los intervinientes en la cadena de valor del robot (creador, programador, propietario, usuario, etc.); que lo haga únicamente el titular o el usuario del mismo; o que la responsabilidad recaiga sobre la propia inteligencia artificial, a través de la creación de una personalidad robótica (una tercera categoría, además de la física y la jurídica).

Laboral

Las nuevas tecnologías han entrado como un ciclón en el ámbito laboral, afectando, prácticamente, a todas sus áreas. Raúl García, socio del bufete, subrayó la importancia de evitar los sesgos en los algoritmos destinados a la selección de personal y advirtió de las dificultades que en la actualidad presentan las evaluaciones de riesgos. "La Inspección de Trabajo está vigilando mucho que las empresas hagan una adecuada valoración de los riesgos psicosociales", remarcó, en referencia a las nuevas patologías, como el tecnoestrés, la tecnoansiedad o la tecnoadicción. Asimismo, recordó que la nueva ley de protección de datos ha incluido el derecho de los trabajadores a la desconexión digital.

Competencia

En materia de competencia, según señaló Alfonso Ois, socio de la firma, la utilización de algoritmos para fijar los precios puede conducir, con extrema facilidad, a una situación de colusión (incluso, no deseada). Podría darse, por ejemplo, si varios actores del mercado contratan al mismo proveedor de soft­ware para esta tarea. O también si la propia inteligencia artificial aprende por sí misma que a través de determinadas prácticas anticompetitivas puede lograr su objetivo de maximizar el beneficio.

"La pregunta sería si es posible instruir a la máquina en materia de compliance", comentó Ois, quien, no obstante, advirtió de que las autoridades de competencia hacen responsables a las empresas de las herramientas que emplean en su actividad. "Y en esta categoría entrarían los algoritmos", zanjó.

Derechos de autor

La capacidad de los robots de crear arte o inventos de forma autónoma está haciendo tambalearse algunos de los pilares sobre los que se asientan las normas de propiedad intelectual, que solo prevé la protección de creaciones desarrolladas por humanos.

En esta materia, en todo caso, hay que distinguir dos niveles: los elementos que se insertan en la cadena productiva de la organización, como el soft­ware, los algoritmos y los datos; y, en segundo lugar, las creaciones. Así, cuando estas últimas hayan sido desarrolladas íntegramente por un robot, la legislación actual no ofrece la protección ni de los derechos de autor ni las patentes. Si cabe, en cambio, como aseveró Blanca Escribano, socia de EY Abogados, protegerlas a través de los secretos empresariales.

Privacidad

La protección de datos también ocupa un lugar esencial ante el desarrollo de la inteligencia artificial. Desde tres perspectivas. En primer lugar, para incorporar la ciberseguridad desde el diseño de los procesos. Segundo, porque todo sistema informático, también estos, pueden resultar atacados. Y, finalmente, desde EY resaltaron la importancia de mantener bajo control los avances del modelo para evitar dificultades en la gestión de riesgos.

Fiscalidad

En el ámbito fiscal muchos países se encuentran ya experimentando o discutiendo sobre nuevas regulaciones. Es el caso de Corea del Sur, que ha incrementado la presión fiscal a aquellas compañías con un mayor índice de automatización. Los efectos de la pérdida de puestos de trabajo por la robotización (y la compensación de los ingresos que estos dejen de generar) es el gran reto al que se miden todos los países.

¿Quiere saber más sobre el Derechos de los robots? Pinche aquí.

Archivado En

_
_