sábado, 6 de mayo de 2023

El ChatGTP, sus riesgos más allá de la curiosidad que provoca.


¿Ya usaste el ChatGTP? Has oído hablar de él, ¿pero no sabes todavía de qué se trata? ¿Es inofensivo? ¿Estás maravillado de sus alcances?

Y es que, así como si viviéramos en una película futurista, el desarrollo de la Inteligencia Artificial hoy nos sorprende, ya sea como una herramienta versátil para nuestro trabajo o tan solo para curiosear, por la infinidad de datos que arroja a sus usuarios.

Para aquellos que no están familiarizados con lo que es exactamente la Inteligencia Artificial, habría que definirla como la construcción de sistemas informáticos que tienen la habilidad de realizar tareas que regularmente haría la inteligencia humana. Entonces, ¿qué es el ChatGPT? ¿Y qué lo hace extraordinario? El ChatGPT es una herramienta con la que el usuario puede hacer cuestionamientos a una Inteligencia Artificial, que contestará sus dudas sobre los datos almacenados en distintas fuentes que captará a través de algoritmos. Pareciera que los Chatbots son tecnología de reciente creación; sin embargo, llevan más de una década en investigación y desarrollo, lo que se refleja en la notable mejora en los sistemas de Inteligencia Artificial conocidos como LLM (Long Language Model o Sistema de Lenguage Largo), que permite que la IA entregue a su usuario párrafos enteros que responden a su cuestionamiento, tal cual, como si se tratara de un ser humano. Incluso, por citar algunos ejemplos, el ChatGPT puede impostar las voces de seres humanos, o fingir que un grupo de personas está manifestándose en cierto sentido u organizando una acción colectiva.

La fase positiva de la Inteligencia Artificial del ChatGPT se da dentro del campo de los grandes avances tecnológicos, pues permite obtener información desde el punto de vista de ahorrar tiempo en el desempeño de labores o por mero esparcimiento, haciendo el trabajo de búsqueda e investigación de datos a una rapidez asombrosa.

Dicen algunos analistas que el ChatGPT aumenta la productividad hasta en un 35%, según reportes que se tienen sobre empleados que han hecho uso de esta herramienta, para obtener datos relacionados con su actividad laboral.

Sin embargo, la otra cara de la moneda nos lleva a preguntarnos si el uso de los chatbots como el ChatGTP es seguro para sus usuarios, en cuanto a los datos que proporcionan, y si los sistemas normativos están a la altura de estos cambios tecnológicos; así como a cuestionarnos qué están haciendo los gobiernos para procurar que no se lastimen los derechos de los ciudadanos ante el uso de estos sistemas.

Una de las preocupaciones radica en las llamadas “cajas negras”, en oposición al concepto de “cajas blancas”. Las “cajas blancas” son las líneas de código que reflejan un resultado en un software que se desarrolla de manera tradicional. El tema es que con la IA han surgido las “cajas negras”, denominadas así porque no se alcanza a comprender qué es lo que realmente sucede dentro, ni siquiera por los mismos expertos en sistemas. Esto ocurre porque las operaciones al interior del sistema de IA no son visibles, creando así un sistema impenetrable que no explica en forma alguna cómo se logra el resultado.

Tendríamos que reflexionar en que si no sabemos cómo un chatbot capta los datos para llegar al resultado, no podemos inferir cómo se podría controlar la información de lo que ocurre en estos sistemas de IA, así como tampoco tenemos claridad sobre cómo y en qué forma pudieran vulnerarse los derechos de los usuarios.

Debemos considerar que normalmente los usuarios nos saltamos el primer paso para usar una nueva aplicación, ya que generalmente aceptamos los términos y condiciones de esta a pesar de no haberlos leído. Este es uno de los puntos más relevantes en el manejo del ChatGPT, toda vez que, para iniciar su uso, advierte en sus términos lo siguiente:

“La información que se me provea durante una interacción deberá ser considerada pública, no privada, porque no soy una plataforma segura de transmitir información sensible o personal. No soy capaz de asegurar la seguridad o confidencialidad de ninguna información que se intercambie durante esas interacciones, y las conversaciones pueden ser almacenadas y usadas para la investigación o procesos de entrenamiento. Por lo tanto, es importante conducirse con precaución cuando se comparta información personal o sensible, durante las interacciones que tenga conmigo o con cualquier otro modelo de lenguaje de IA.”

Alrededor de esta problemática habría que discutir si es posible que los términos y condiciones de una compañía privada determinen que toda la información que sea manejada durante la interacción en el chat se convierta en pública, a pesar de que pudiera contar con derechos que la limiten al ámbito privado, en este caso, así como también la posibilidad de que podrían vulnerarse los derechos de Propiedad Intelectual e Industrial de la misma.

Otra problemática severa sería conocer qué es lo que ocurre con los datos personales y/o sensibles de los clientes a partir del uso de un Chatbot dentro de una empresa, ya sea por instrucciones formales de sus directivos, o por un empleado que decidiera realizar su trabajo con más rapidez con el apoyo de esta herramienta.

A su vez, es posible que pudieran vulnerarse las bases de datos de las empresas con la información privada de sus usuarios; por ejemplo, imaginemos que a través de estos chatbots se captaran usuarios de servicios financieros. Incluso, sería importante considerar hasta qué punto pudiera bastar con que un solo empleado transmitiera información que ponga en riesgo los datos internos de la compañía, así como de sus clientes.

Todo ello llevaría a colocar en riesgo a las empresas que por sí o a través de sus empleados estuvieran violando sus avisos de privacidad, habiéndose obligado previamente a cumplir las condiciones sobre ciertas restricciones para el uso de la información de sus clientes, debido a que -sin leer o comprender los términos y condiciones- estuvieran proporcionando datos de terceras personas al momento de interactuar con el ChatGPT.

Aunado a lo anterior, debemos considerar el recrudecimiento de la infodemia en la que vivimos. Si la información contenida en los algoritmos recoge cualquier cosa que se encuentre en internet y la toma como cierta, fidedigna o racional, aun cuando pudiera ser información sesgada, prejuiciosa, falsa o errónea, se afectarían los derechos de los ciudadanos en varios sentidos; por ejemplo, el derecho a la verdad.

La respuesta ante el cuestionamiento de qué tan seguro es el uso de estos sistemas de IA es que, muy probablemente, no hay un solo país que se pudiera jactar de que hoy por hoy, aún con sus normas vigentes, protejan los derechos de los usuarios ante los posibles abusos que pudieran derivar de la manipulación de la inteligencia artificial; es por ello que el reto será encontrar aquellas lagunas jurídicas que se deriven del uso de estas nuevas tecnologías.

Este problema es escalable, los términos y condiciones de un proveedor de servicios de chatbot estaría colocándose por encima de la aplicación de las leyes emitidas en ciertos ámbitos o territorios por sus congresos o parlamentos, afectando la supremacía de la ley, y también -en dado momento- la seguridad nacional de los países.

Este tema debiera ser de suma relevancia en nuestro país donde no alcanzan los sistemas jurídicos para regular la interacción entre los chatbots y los usuarios, debiendo reconocer que estamos rebasados para afrontar los casos prácticos en los que ocurriera la vulneración de derechos.

En México, nuestros legisladores deberían estar trabajando en este desafío con calidad de prioritario dentro de la lista de pendientes más relevantes, pues es imposible detenernos ante un el mundo cuya tecnología avanza a una velocidad vertiginosa, debiendo dimensionar lo que pudiera llegar a ocurrir ante la existencia de los malos manejos de las herramientas de Inteligencia Artificial.