En colaboración conLa Ley

La adopción de la IA en los despachos para optimizar la gestión de intangibles

Pronto, cualquier empleado comenzará su jornada encontrándose con una lista de tareas asignadas por un sistema que ha analizado miles de emails entrantes de forma autónoma

Sansert Sangsakawrat (Getty Images)

Conseguir que una organización saque partido de la inteligencia artificial (IA) no es algo trivial y supone un cambio de paradigma detrás del cual hay un cambio mucho mayor que la implantación de cualquier software de gestión como, por ejemplo, ERPs o CRMs.

Si cuando nos encontramos frente a proyectos de esta índole nos vemos obligados a realizar cambios organizativos, a formar a los equipos y a concienciar a los directivos, mucho más necesario será afrontar esta gestión del cambio en la implantación de la IA en una organización.

El sector jurídico es uno de los mejores candidatos para aplicar inteligencia artificial en sus procesos. Grandes cantidades de documentación, uso intensivo del dato, tareas repetitivas, mucha manualidad, etc. son un buen caldo de cultivo para aplicar robotización e IA, pero debemos ser conscientes de diferentes aspectos que se deben tratar dentro del reto al que nos enfrentamos.

En nuestra firma hemos establecido una hoja de ruta que nos llevará a incorporar IA en diferentes procesos y estructuras organizativas durante los próximos dos años. Pronto, cualquier empleado comenzará su jornada encontrándose con una lista de tareas asignadas por un sistema que ha analizado, clasificado y procesado miles de emails entrantes de forma autónoma.

Este empleado utilizará su asistente de IA para localizar y generar presupuestos, redactar escritos y completar trámites basándose en el histórico de documentación con el que cuenta la firma.

La primera decisión que debemos tomar es qué modelo de adopción vamos a emplear. Podemos apoyarnos en el uso de modelos fundacionales como GPT, Gemini, Llama, o Claude, que son unas herramientas excelentes para interactuar con grandes volúmenes de información; generar contenidos; informes y código; y automatizar tareas.

Utilizar estos modelos tiene tres aspectos a tener muy en cuenta: privacidad, coste y personalización.

Pedir a un asistente que genere un escrito a partir de documentos internos de nuestro repositorio, supone compartir el contenido y los datos que están en esa documentación. La falta de privacidad, la vulneración de la confidencialidad y la fuga de información sensible es un riesgo a considerar. El coste de computación asociado a estos modelos hoy es elevado. Nuevas infraestructuras, así como la aplicación de nuevas técnicas como el TestTimeCompute aliviarán este aspecto, pero de momento es algo a tener en cuenta.

En cuanto a la personalización, estos modelos fundacionales están entrenados con millones de datos, pero no necesariamente con información de nuestro sector y actividad, por lo que es necesario “enriquecerlos” para que sus resultados sean adecuados en nuestro día a día.

En nuestro caso, en estos primeros pasos con la IA hemos apostado por la utilización de modelos combinados Open Source y de pago basados en computación en tiempo de test (buscando optimizar coste), enriquecidos mediante Generación Aumentada de Recuperación (RAG) a partir de los millones de documentos con los que cuenta la firma gracias a una dilatada experiencia de casi 160 años de historia.

Gracias a ello, conseguimos que la generación de información se realice dentro del contexto en el que operamos día a día y vemos factible la reducción en un 70% de los tiempos necesarios para la generación de escritos recurrentes, así como una clara mejora en la atención al cliente por una mayor velocidad y precisión en la resolución de peticiones.

Un asistente de IA nos puede meter en algún brete si damos por bueno todo lo que genera. En nuestro proyecto de adopción de estas tecnologías debemos contemplar la existencia de riesgos: la protección de datos está en juego, y, por ello, debemos cifrar y anonimizar los datos con los que trabajamos, realizar auditorías y garantizar el cumplimiento de nuestras políticas de privacidad de datos para asegurar el cumplimiento de regulaciones como RGPD.

La algoritmia puede provocar sesgos que deriven en decisiones erróneas generadas por los modelos. Para evitarlo, tendremos que definir estrategias de entrenamiento (preprocesamiento, uso de datos equitativos…) y de auditoría que nos permitan detectar y corregir estos sesgos.

Y no menos importante entender que el uso de la IA puede suponer que perdamos habilidades críticas entre los empleados por un exceso de confianza en las decisiones tomadas, que entendemos que siempre deberán estar supervisadas y auditadas por personal humano.

Nuestra apuesta por la innovación es clara pero también somos conscientes de las implicaciones que supone desplegar la inteligencia artificial. Por ello, comenzaremos la casa por los cimientos: preparar y capacitar a la organización y a las personas para, a continuación, dotarles de las herramientas necesarias enfrentándonos y dando respuesta durante todo el camino a los riesgos mencionados.

Archivado En