Dino CarlosCaro Coria
Compliance 3.0 Por Carlos Caro

En el MIT no enamoras con palabras sino con ecuaciones”, una frase que inventé en el marco de un curso del Massachusetts Institute of Technology (MIT), fundado en 1861, considerada la principal escuela de ingeniería de los Estados Unidos y la mejor Universidad del mundo durante siete años consecutivos (2012-2018), según QS World University Rankings. Menciono esto porque el desarrollo de la tecnología, la inteligencia artificial (AI), el blockchain, el internet de las cosas (IoT), el cloud o el machine learning, no es tarea de abogados y menos aún de los asesores en compliance, es un trabajo de ingeniería, se trata de crear o descifrar ecuaciones y algoritmos, y con el viejo método experimental de ensayo-error.

Es por ello extraño encontrarnos en los últimos tiempos con numerosos “expertos” en el llamado legal tech o legal technology, una expresión que no pocas veces se usa como un recurso de marketing y menos como un verdadero producto tecnológico. Todos aspiramos a la modernidad y vende mejor decir que somos “abogados de la era digital”. Los médicos, los ingenieros o los artistas no han tenido la misma habilidad para asentar expresiones como medical tech, engineering tech o art tech.

El legal tech no es otra cosa que potenciar o incluso transformar la actividad jurídica mediante la tecnología, en especial los medios digitales, desde un software hasta la inteligencia artificial, en sectores como la educación jurídica, la abogacía, la actividad judicial, etc., es decir tanto para el ámbito público como privado. En ese contexto, conforme al Tech Index of the CodeX Center for Legal Informatics de la Universidad de Stanford, que a junio de 2019 registraba más de 1,200 empresas, pueden diferenciarse hasta siete modalidades de aplicaciones y empresas de Legal Tech: productos de asesoramiento legal automatizado para los ciudadanos (automated legal advice products), market places o plataformas de encuentro entre clientes y abogados, empresas de externalización del trabajo jurídico para los despachos y departamentos jurídicos (legal process outsourcing), automatización documental,  herramientas de e-discovery y revisión de documentos, análisis predictivo de casos, y plataformas de e-Learning[1].

Pero, ¿cuáles son los límites que el compliance puede imponer a esta transformación legal digital? Los ya conocidos si la tecnología sigue sometida al control humano, es decir en los niveles 1, 2 y 3 de desarrollo de la inteligencia artificial: 1) sistemas que piensan como humanos (por ejemplo, arquitecturas cognitivas y redes neuronales); 2) sistemas que actúan como seres humanos (por ejemplo, pasan el test de Turing a través del procesamiento del lenguaje natural; representación del conocimiento, razonamiento automatizado y aprendizaje); y, 3) sistemas que piensan de manera racional (por ejemplo, solucionadores lógicos, inferencia y optimización)[2]. Para estas aplicaciones de la inteligencia artificial al legal tech, es fundamental el control de la data, la protección de datos, una tarea a la que estamos llegando tarde, como indiqué con anterioridad[3].

El panorama cambia si con el legal tech se recurre al nivel 4, el más avanzado de la inteligencia artificial, es decir sistemas que actúan racionalmente, por ejemplo, agentes de software inteligentes y robots incorporados que logran objetivos a través de la percepción, planificación, razonamiento, aprendizaje, comunicación, toma de decisiones y actuación[4]. Estos agentes de inteligencia artificial, más bien profunda, van camino a la singularidad, un estado de evolución del diseño inteligente en el que éste se reconoce a sí mismo, el ente cobra “autoconciencia”, tiene una representación de sí mismo, el algoritmo crea respuestas autónomas e imprevisibles frente a terceros, incluyendo el propio fabricante o el programador.

Esto ha dado lugar a un debate, aún en sus inicios, sobre la posibilidad de reconocer la existencia de una personalidad puramente digital, ¿son personas los agentes de inteligencia artificial[5], como las personas jurídicas que son entes a los que la ley, incluso la penal, les reconoce una personería propia y distinta al de las personas físicas?[6], ¿tienen derechos y deberes, o solo deberes por ser a la vez “cosas”?, ¿tienen dignidad como la que se imputa a los animales? Por otra parte, ¿podemos confiar en los algoritmos para sentenciar por ejemplo un caso de alimentos y patria potestad?, ¿puede un “juez” con inteligencia artificial decidir si el imputado es culpable o inocente con base en la big data y las pruebas del caso?, ¿podemos aceptar que el machine learning arribará a soluciones justas?

Si la programación ética de la inteligencia artificial es el espacio natural del ciber compliance o digital compliance, ella es aún más importante en el legal tech, en particular si los agentes de inteligencia artificial suplirán, al menos en parte la labor de los abogados y los jueces. La ética en ese contexto sigue siendo una ecuación, el aprendizaje ético de la máquina es producto de los mismos algoritmos, la misma ingeniería que permite aprender cualquier disciplina a la inteligencia artificial. Una ética en consecuencia limitada al aprendizaje mediante el procesamiento de big data, y la que emane de situaciones, “vivencias” o experiencias del propio agente de inteligencia artificial, es decir bajo el método de ensayo-error. Pero la bondad, la justicia o la compasión no son programables, aunque puedan procesarse miles o incluso millones de soluciones calificadas como justas o buenas por un operador, y programarse la imitación de esas soluciones para situaciones semejantes, todo lo bueno y todo lo malo no puede introducirse a una base de datos.

Por ello el modelo, bien derivado del libre mercado, de las regulaciones o autorregulaciones (compliance), debe ser uno colaborativo entre las capacidades humanas y las ventajas de la inteligencia artificial. Con un ejemplo, se ha aprobado en Estonia el uso de “jueces robots” para casos menores, donde la solución puede ser casi mecánica. Lo mismo sucede en la elaboración de contratos, tratándose de acuerdos en masa la inteligencia artificial puede procesarlos más rápido y con fallos mínimos. Sin embargo, en los asuntos complejos, con muchas variables o incluso variables inéditas, que jamás la inteligencia artificial haya podido aprender, se necesita la intervención humana, para discernir, valorar, tomar una decisión. La ventaja de ese modelo colaborativo entre personas y máquinas para llevar a cabo los procesos de trabajo es que cada uno posee características intrínsecas que, unidas, permiten optimizar el proceso global[7].

Las máquinas pueden almacenar una cantidad enorme de información y procesarla al instante, hacer predicciones basadas en inteligencia artificial y soportar determinados tipos de procesos de manera simultánea. A su turno, las personas tienen capacidades como la empatía, el liderazgo, la intuición, la invención y, en especial, la de efectuar juicios de valor. Dichas cualidades, sumadas a la memoria de las máquinas, su capacidad de predicción, procesamiento y reprogramación, así como su resistencia, conforman equipos óptimos para las empresas y los nuevos entornos de trabajo[8], en este caso para el desarrollo del legal tech.

Es el mismo principio que fundamenta el crowdsourcing, en los sistemas de colaboración abierta distribuida, Waze, por ejemplo, cada usuario aporta una pequeña porción de información que aumenta el conocimiento del sistema en general, el sistema incorpora toda la información y es capaz de elaborar predicciones[9], pero el clic final, el control, seguir o no el sistema es una decisión únicamente humana. Lo mismo sucede con la realidad aumentada o mixta, se superpone una capa de información virtual sobre otra proveniente de la visión del mundo real del usuario, del humano, ofreciendo una visión compuesta, pero el algoritmo solo multiplica la información, tomarla en cuenta o no sigue siendo una decisión enteramente humana.

[1] Barrio Andrés, Moisés (Dir). Legal Tech. La transformación digital de la abogacía. Madrid, Wolters Kluwer 2019, Capítulo 1, apartado 4.2, pgs. 8-10, versión smarteca.

[2] Como puse de relieve antes, http://semanaeconomica.com/compliance-30/2019/06/08/compliance-e-inteligencia-artificial-ai/, citando el Informe “Preparing for the Future of Artificial Intelligence” de octubre de 2016, de Executive Office of the President National Science and Technology Council Committee on Technology de la Casa Blanca, y siguiendo a Russell/Norvig (Artificial Intelligence: A Modern Approach, 3ª ed, Pearson, UK 2010, pg. 2-5)

[3] Ibid.

[4] Ibid.

[5] Seher, Gerhard. “Intelligente Agenten als „Personen“ im Strafrecht?”, en: Sabine Gless/Kurt Seelmann (Dir). Intelligente Agenten und das Recht. Baden-Baden, Nomos 2016, pp. 45ss.

[6] Erhardt, Jonathan/Mona, Martino. “Rechtsperson Roboter – Philosophische Grundlagen für den rechtlichen Umgang mit künstlicher Intelligenz”, en: Ibid., pp. 61ss.

[7] Massachusetts Institute of Technology. Materiales del curso de transformación digital, junio de 2019, módulo 4, sección 5.1.

[8] Ibid.

[9] Ibid.

LinkedIn