¿Para qué y cómo incorporar IA?
- Camila Da Silva Tabares
- 2 jul 2023
- 8 Min. de lectura
I. Introducción
Los profesionales jurídicos hemos estado debatiendo y preocupándonos por la regulación de la inteligencia artificial (IA), sin perjuicio de que existen numerosas normas que aplican en las diversas etapas del sistema, como por ejemplo la protección de datos personales, normas de ciberseguridad, propiedad intelectual, entre otras. En ese sentido, los profesionales del derecho deberíamos estar enfocados no solo en cumplir la normativa aplicable ya existente, sino también en crear estándares de buenas prácticas para la implementación en nuestras labores con especial énfasis en nuestros deberes de ética profesional, los cuales incluyen el secreto profesional y el deber de proteger los derechos de nuestros clientes, especialmente en cuanto a privacidad se trata.
El presente trabajo pretende ahondar en los recaudos que deben tomar los profesionales del derecho para la implementación de las herramientas de IA en sus labores, sea como asistencia para tareas concretas o utilización generalizada, adoptando un enfoque proactivo en la prevención y mitigación de riesgos de nuestros deberes profesionales.
II. ¿Para qué puede utilizarla el profesional jurídico?
Previo al análisis de cómo implementar herramientas, es necesario preguntarnos para qué son útiles, y no caer bajo el solucionismo tecnológico que nada aporta a nuestra labor. Por cuestiones de extensión, solo mencionaremos a título enunciativo algunas de las posibilidades concretas en las labores jurídicas: asistencia en trabajos de investigación; generación de estrategias legales y de ideas sobre temas puntuales de acuerdo a distintos parámetros; implementación visual de un contenido legal - también conocido como “visual law”-; corrección de errores gramaticales y sugerencias de redacción sobre trabajos propios escritos en otros idiomas; redacción de temas en términos sencillos para explicar cuestiones complejas a clientes a clientes con necesidades físicas y/o intelectuales especiales, entre otras. Desde luego, la lista de posibilidades no se acaba aquí.

III. Cuidados al implementar inteligencia artificial
Si bien las posibilidades son prácticamente infinitas y modelos de IA abiertos como Chat GPT permiten a cualquier persona implementar esta herramienta, existe una serie de precauciones que se deben tomar al momento de planificar sobre la implementación de sistemas de IA en nuestras labores, las cuales serán variables en función de los sistemas que decidamos utilizar. En este sentido, es necesario realizar una investigación previa de la herramienta respecto de los siguientes puntos.
a. Términos y condiciones (TyC) del modelo de IA
Al interactuar con plataformas, es primordial regirnos por los términos y condiciones (TyC) de esta, especialmente en cuanto al alcance de la licencia de uso. A los fines de evitar incumplimientos y sorpresas, es fundamental comprender el alcance del “input creativo” o prompt, y del output o producto. En este sentido, podríamos definir el “prompt” como las instrucciones e información que brindamos al interactuar con el modelo y solicitare acciones.
Podemos citar como ejemplo los TyC de OpenAI en cuanto a Chat GPT, estos nos indican que siempre y cuando se cumplan TyC, tanto el prompt como el producto serán de libre uso y disposición para el usuario, incluyendo propósitos comerciales como venta y publicación (traducción propia)[1]. Ello, si bien implica una licencia de uso amplia, no zanja el debate en torno a los derechos de autoría, abordados más adelante.
Si bien es cierto que mientras más contexto y especificaciones brindemos al realizar redactar un prompt, esto conlleva riesgos de privacidad considerables. En los hechos, e independientemente de la atribución de la autoría, estas plataformas suelen otorgar licencias amplias del contenido creado a través de ellas, y si bien algunas son monetariamente gratuitas, a cambio la plataforma podrá recolectar nuestros datos e información, lo cual nos lleva al siguiente punto.
b. Privacidad y ciberseguridad
Desde ya que dentro de los términos y condiciones se establece que las plataformas recogerán no solo nuestra información personal al crearnos una cuenta, sino también la información que utilicemos en nuestros prompts e inputs creativos, incluyendo textos y archivos[2].Mas adelante, los TyC nos indican que no solo recolectan la información que utilizamos para generar contenido mediante la IA, también se reservan el derecho de compartir dicha información con terceros.
Es en este punto donde más atentos debemos estar los profesionales del derecho en la utilización de la IA, en miras a preservar nuestros deberes de confidencialidad. En ello cabe preguntarnos ¿Puede un prompt generar un daño y eventualmente responsabilidad civil? Mi postura es que definitivamente si, ya sea exponiendo datos de nuestros clientes al tratar de dar contexto al pedido, de correcciones en una demanda, divulgando secretos industriales al solicitarle a un modelo de IA una sugerencia sobre un trabajo realizado por nosotros mismos, o incluso destruyendo la novedad de una investigación, anulando así la posibilidad de obtener una patente.
Desde ya, que ello es de especial consideración en las labores judiciales y de administración pública, de las cuales podríamos considerar de alto riesgo según la propuesta legislativa europea, por lo cual se deben extremar los cuidados en la utilización de la IA para preservar la privacidad de las partes implicadas en un proceso. En definitiva, todo lo que se “promptea” y se utiliza como información para interactuar con modelos de IA debe abordarse como si se estuviera poniendo a disposición del público, porque es lo que sucede en los hechos.
c. Propiedad intelectual
Otra cuestión de suma relevancia es la propiedad del producto realizado por la IA, y si bien mencionamos la cuestión de los TyC, estos suelen resultar ambiguos y carecen de una solución a cuestiones como la autoría. En este sentido, es necesario destacar que ello dependerá de qué manera y para qué implementemos la IA, dado que, si el uso es meramente para la obtención de ideas o meras sugerencias, estas no están protegidas por las leyes de propiedad intelectual. En ese sentido, se destaca que lo protegible por derechos de autor es la expresión de una idea, salvo supuestos de fusión entre idea y expresión[3].
En cambio, si se implementa la obra en si misma -sea un escrito, una imagen, o demás obras protegidas- producto de la IA, podríamos enfrentarnos a un profundo debate que nos resume Mantegna[4] al explicar que podemos identificar “un espectro de autorías posibles, con dos categorías iniciales correspondientes a obras asistidas por Inteligencia artificial y obras generadas por inteligencia artificial(…) Se abre un abanico de posibilidades para atribuirse la autoría, basado en el mayor mérito del input creativo o de su impacto en el resultado final”. En ese sentido, volvemos a destacar la importancia el prompt en la utilización de la IA y su relevancia en el output o producto final.
Otra cuestión de suma relevancia, que no abordaremos por cuestiones de extensión, es la propiedad intelectual sobre las obras que componen los data sets que entrenan al modelo, y que en gran medida producen el output final.
d. Tendencias de transparencia
Del punto anterior de deriva una cuestión central, y es la honestidad intelectual. Si bien la atribución de la autoría es un debate abierto, lo cierto es que los TyC permiten el uso casi irrestricto de lo producido a través de ellas. La cuestión, entonces, se resume a cómo implementar dicho contenido.
En este sentido comienzan a explayarse los jueces, siendo un caso reciente el de un juez federal en Texas[5] que comenzó a exigir que los abogados declaren en sus demandas la utilización de inteligencia artificial y aseguren su control humano. Incluso la mención de la utilización de la IA puede constituir una obligación de fuente contractual o legal, y en este sentido podemos citar los TyC de ciertos modelos de IA, como también la propuesta regulatoria europea de 2021.
Por citar un ejemplo, DALL-E de OpenAI que si bien no requiere una mención expresa de su utilización -aunque sugiere hacerlo-, exige lo que se conoce como obligación de no hacer, la cual consiste en no engañar sobre el origen de la obra, como por ejemplo sosteniendo que la misma fue un producto realizado en su totalidad por humanos y/o que es una fotografía real (traducción propia).[6]
En este sentido se ha encarado en Europa el proyecto de regulación de la IA, al establecer parámetros esencialmente destinados a los modelos de “alto riesgo” - dentro de los cuales podemos citar su uso por el Poder Judicial-, pero incitando a implementar dichas prácticas aún a quienes no califiquen como tal, especialmente en cuanto a advertencias e información respecto del origen del contenido y la utilización de la IA.
IV. La importancia del control posterior
No resulta casualidad el término herramienta al calificar la IA, y es que ello evoca una utilidad, pero no un reemplazo de otras obligaciones. Tal como hemos expuesto, la IA puede implicar determinadas cuestiones como sesgos, errores lógicos y otros, ya que los sistemas implementados han sido diseñados para producir contenido verosímil en cuanto a la relación de lo aprendido, sin embargo, el concepto de verosimilitud no es sinónimo de verdadero, además de que las bases de datos en las que se sustenta el sistema pueden ser temporalmente limitadas, aumentando la probabilidad de brindar información concreta, veraz y actualizada. En los hechos, se suma la cuestión de que muchas veces estos sistemas se tratan de “cajas negras”, es decir, que se desconoce qué sucede dentro. En dicho sentido, “la opacidad de los sistemas puede ser técnica (cuando no tenemos la formación necesaria para entender el proceso) o legal, cuando dispositivos contractuales o de propiedad intelectual impiden el acceso (sean acuerdos de confidencialidad, secretos comerciales o protecciones que impiden la auditabilidad)”[7]
Esto denota que muchas veces el profesional se encontrará con la imposibilidad de comprender cómo funciona el sistema y cómo el modelo ha generado el contenido solicitado. En este sentido, los TyC advierten que es responsabilidad del usuario el control posterior del contenido, e incluso admiten que no filtran las respuestas, por lo cual el usuario se encontrará eventualmente con productos sesgados y/o negativos, que a su vez podrían ser falsos, como los recientes casos donde Chat GPT ha inventado precedentes judiciales. Sin duda, el control humano posterior es esencial para una correcta utilización de la IA, tanto para prevenir plagios como sesgos, discriminaciones y otros. Y, para ello, la combinación con herramientas que los detecten será esenciales -atentos, nuevamente, a todo lo expuesto anteriormente-.
V. Conclusiones
La inteligencia artificial es una herramienta que puede ser incorporada en las labores jurídicas directas y/o complementarias, reconociendo que la labor de los abogados admite una gran variedad de tareas. Sin embargo, su utilización debe realizarse de manera consciente y proactiva en cuanto a prevención de riesgos de privacidad y ciberseguridad, incumplimientos de términos y condiciones, posibles plagios y demás incumplimientos legales, atentos a la naturaleza de la labor, dado que algunas áreas -como lo relativo al Poder Judicial- son consideradas de “alto riesgo” por su implicancia en los derechos humanos.
Para ello, conforme a lo expuesto, no solo es necesario el conocimiento y análisis de riesgos, sino también una incorporación mediante prácticas de honestidad intelectual, ética y transparencia. Es momento de comenzar a implementar estándares de uso y buenas prácticas por los profesionales jurídicos, encarando el desafío de realizar investigación previa de la herramienta que se pretende implementar y construir un manual de utilización conforme a las necesidades de cada organización.
Este enfoque proactivo propuesto sin duda será más efectivo que aguardar por regulaciones, dado que en principio estas se conciben para regular prácticas de alto riesgo a nivel institucional público y organizacional privado siendo ellas utilizaciones de gran escala, y no la incorporación en pequeñas tareas. Expuesto ello, es labor del profesional jurídico actualizarse, adquirir un rol proactivo e implementar estándares que hagan a la utilización idónea de las herramientas, sin aguardar pasivamente a regulaciones que pueden demorar años.
[1] Texto original “As between the parties and to the extent permitted by applicable law, you own all Input. Subject to your compliance with these Terms, OpenAI hereby assigns to you all its right, title and interest in and to Output.” Extraido de https://openai.com/policies/terms-of-use [2]“ When you use our Services, we may collect Personal Information that is included in the input, file uploads, or feedback that you provide to our Services (“Content”).” [3] La doctrina de la fusion de la idea. [4] ARTEFICIAL: Creatividad, inteligencia artificial y derecho de autor. Micaela Mantegna. 1ra Ed. Ciudad de Buenos Aires. CDYT, 2022. [5] US judge orders lawyers to sign AI pledge, warning chatbots 'make stuff up' https://www.reuters.com/legal/transactional/us-judge-orders-lawyers-sign-ai-pledge-warning-they-make-stuff-up-2023-05-31/?s=08 [6] “You may remove the DALL·E signature if you wish, but you may not mislead others about the nature of the work. For example, you may not tell people that the work was entirely human generated or that the work is an unaltered photograph of a real event” https://labs.openai.com/policies/content-policy [7] ARTEFICIAL: Creatividad, inteligencia artificial y derecho de autor. Micaela Mantegna. 1ra Edición. Ciudad de Buenos Aires. CDYT, 2022.




Comentarios