_
_
_
_
Análisis
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Europa y el ‘paraqué’ de la inteligencia artificial

El gran reto que afrontan las sociedades es dar un propósito ético a la tecnología

Ningún consejero delegado del Ibex 35 adopta decisiones importantes basándose en la inteligencia artificial. Decide el ser humano.
Ningún consejero delegado del Ibex 35 adopta decisiones importantes basándose en la inteligencia artificial. Decide el ser humano.KTSDESIGN/SCIENCE PHOTO LIBRARY (Getty Images/Science Photo Libra)

Europa tiene por delante el reto de dar un paraqué ético a la inteligencia artificial (IA). Algo que ni Estados Unidos ni China harán, pero que la humanidad demanda si queremos que el ser humano siga siendo el centro de todas las cosas que configuran nuestra civilización. En este sentido, abordar o no una moratoria en el desarrollo de la IA no es la solución. Llevamos más de 50 años trabajando en ella. Se ha hecho con el objetivo científico de imitar las capacidades del cerebro humano y replicarlo en la medida de lo posible a través de un cerebro artificial.

Lo que al principio era una utopía empieza a verse posible. Lo es gracias a un esfuerzo investigador que ha ido traduciéndose en avances significativos en los últimos años. Hasta el punto de que nos adentramos en el umbral de alcanzar una IA capaz de pensar casi como un ser humano. Decimos casi porque hasta ahora la IA se ha orientado hacia el desarrollo de capacidades que ha favorecido exponencialmente la transformación digital de nuestras sociedades. Hasta el punto de que convivimos con sistemas de IA sin los que ya no podrían funcionar las empresas, la Administración, la movilidad, la seguridad, los servicios financieros o la salud, entre otros ámbitos. De hecho, la IA hace más cómoda y facilita nuestra existencia individual y colectiva. Esto ha sido posible porque el sesgo principal de la innovación en IA se ha orientado a maximizar la función utilitaria de complementar la actividad humana.

Los problemas surgen ahora al ver cómo la IA empieza a pensar con más eficacia funcional que la inteligencia humana y, además, a hacerlo también en ámbitos que hasta ahora se creía que eran exclusivos de los seres humanos. Esto es consecuencia de los avances en investigación que han hecho que los sistemas de IA incorporen en su aprendizaje modelos de redes neuronales inspirados por la neurociencia. Algo que ha hecho que el llamado aprendizaje automático de las máquinas se transforme en otro profundo, que les permite disponer de una inteligencia propia que se va pareciendo cada vez más a la humana. La importancia de este hecho y la posibilidad de que se logre una réplica del cerebro humano que, a diferencia del nuestro, sea infalible y carezca de condicionantes éticos, que es lo que sucede con la inteligencia humana, nos coloca ante un ámbito de investigación que requiere identificar propósitos y limites que vayan más allá de maximizar por maximizar las capacidades de la IA. De lo contrario, no solo nos exponemos a que la humanidad se asome a un riesgo más o menos generalizado de sustitución, sino a que los sistemas de IA se adentren en ámbitos que, si no están bajo supervisión humana y sometidos a reglas éticas que garanticen la centralidad del ser humano, provoquen situaciones de discriminación y de injusticia inaceptables dentro de una democracia liberal.

Las consecuencias que este cambio de paradigma puede suscitar sobre la mentalidad de las sociedades humanas y su organización política y económica son inmensas. Nos colocan ante un reto que desborda nuestras capacidades de respuesta a corto plazo y exige esfuerzos extraordinarios de prospectiva política y de compromisos sociales de cara a un futuro más o menos inmediato.

¿Cómo se hará? Es difícil aventurar ahora respuestas concretas. Sin embargo, no pueden pasar, a priori, por parar la investigación de la IA y plantearnos una moratoria acerca de la investigación e innovación en este campo alegando que existen riesgos que pueden ser inasumibles por los seres humanos. Esos riesgos están por acreditarse definitivamente, mientras que las posibilidades que nos brinda la IA se ven a diario al ser una herramienta imprescindible en la digitalización de nuestro mundo. Admitámoslo, la IA es un facilitador crítico en nuestras sociedades automatizadas. Sin ella, serían inviables desde la investigación aplicada a la salud, pasando por la movilidad, la industria 4.0 o el conjunto de la economía basada en plataformas. Hoy, los Gobiernos desarrollan sus políticas gracias a ella. Las empresas son competitivas utilizándola. Y cada uno de nosotros tenemos que reconocer que, funcionalmente, sería imposible que buena parte de la compleja vida personal y profesional que llevamos pudiera hacerse si no estuviéramos asistidos por ella.

A la luz de estas evidencias parece claro que sería un error dejar de innovar y progresar en el desarrollo de las oportunidades que ofrece la IA. Máxime cuando nos da la posibilidad de avanzar hacia una civilización automatizada, que hemos de ser capaces de orientar hacia objetivos que no solo han de ser utilitarios sino humanísticos también. Necesitamos propósitos éticos que den sentido al poder inmenso que la tecnología proporciona al ser humano. Propósitos que preserven la centralidad humana y, sobre todo, que garanticen que nuestra especie seguirá siendo la medida de todas las cosas. Si la IA logra replicar el cerebro humano, entonces tendremos que hacerlo insertando en su ADN sintético compromisos éticos y reglas que estén al servicio de la dignidad humana. Por ello, hay que trabajar por una IA amigable, que tome al ser humano como medida ética de ella misma y no solo como réplica competitiva de sus capacidades.

¿A quién corresponde hacerlo? Sin duda a Europa. Y con ella, el reducido número de democracias liberales que habitan el planeta. El reglamento sobre IA que se debate en estos momentos en la Unión Europea es la oportunidad para significarnos en este campo y liderar un vector regulatorio parecido al que protagonizó en el pasado con el Reglamento de Protección de Datos. Este buscó proteger la privacidad y ha conseguido que se haya abierto camino globalmente una cultura de protección de la misma. Ahora debe abordarse con la IA y conseguir un estándar ético que le haga confiable y evite riesgos que puedan ser dañosos tanto para la dignidad humana como para el bien público ligado a la protección íntegra de la misma. En este sentido, el reglamento debe ofrecernos confianza legal y robustez democrática a una extraordinaria innovación a la que hay que dar un paraqué ético de calado. Que esté a la altura de la responsabilidad que exige crear un cerebro artificial que, a la larga, superará al cerebro humano que lo inspiró. En esta tesitura, pensar sobre la trascendencia de ese paraqué ético no estaría de más.

Grupo de Reflexión de Ametic

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Más información

Archivado En

_
_