¿Ya usaste el ChatGTP? Has oído hablar de él, ¿pero no sabes todavía de qué se trata? ¿Es inofensivo? ¿Estás maravillado de sus alcances?
Y
es que, así como si viviéramos en una película futurista, el desarrollo de la
Inteligencia Artificial hoy nos sorprende, ya sea como una herramienta versátil
para nuestro trabajo o tan solo para curiosear, por la infinidad de datos que arroja
a sus usuarios.
Para
aquellos que no están familiarizados con lo que es exactamente la Inteligencia
Artificial, habría que definirla como la construcción de sistemas informáticos
que tienen la habilidad de realizar tareas que regularmente haría la
inteligencia humana. Entonces, ¿qué es el ChatGPT? ¿Y qué lo hace
extraordinario? El ChatGPT es una herramienta con la que el usuario puede hacer
cuestionamientos a una Inteligencia Artificial, que contestará sus dudas sobre
los datos almacenados en distintas fuentes que captará a través de algoritmos. Pareciera que los Chatbots son tecnología de reciente
creación; sin embargo, llevan más de una década en investigación y desarrollo,
lo que se refleja en la notable mejora en los sistemas de Inteligencia
Artificial conocidos como LLM (Long Language Model o Sistema de Lenguage
Largo), que permite que la IA entregue a su usuario párrafos enteros que
responden a su cuestionamiento, tal cual, como si se tratara de un ser humano. Incluso,
por citar algunos ejemplos, el ChatGPT puede impostar las voces de seres
humanos, o fingir que un grupo de personas está manifestándose en cierto
sentido u organizando una acción colectiva.
La
fase positiva de la Inteligencia Artificial del ChatGPT se da dentro del campo
de los grandes avances tecnológicos, pues permite obtener información desde el
punto de vista de ahorrar tiempo en el desempeño de labores o por mero
esparcimiento, haciendo el trabajo de búsqueda e investigación de datos a una
rapidez asombrosa.
Dicen
algunos analistas que el ChatGPT aumenta la productividad hasta en un 35%,
según reportes que se tienen sobre empleados que han hecho uso de esta
herramienta, para obtener datos relacionados con su actividad laboral.
Sin
embargo, la otra cara de la moneda nos lleva a preguntarnos si el uso de los
chatbots como el ChatGTP es seguro para sus usuarios, en cuanto a los datos que
proporcionan, y si los sistemas normativos están a la altura de estos cambios
tecnológicos; así como a cuestionarnos qué están haciendo los gobiernos para
procurar que no se lastimen los derechos de los ciudadanos ante el uso de estos
sistemas.
Una
de las preocupaciones radica en las llamadas “cajas negras”, en oposición al
concepto de “cajas blancas”. Las “cajas blancas” son las líneas de código que
reflejan un resultado en un software que se desarrolla de manera tradicional.
El tema es que con la IA han surgido las “cajas negras”, denominadas así porque
no se alcanza a comprender qué es lo que realmente sucede dentro, ni siquiera
por los mismos expertos en sistemas. Esto ocurre porque las operaciones al
interior del sistema de IA no son visibles, creando así un sistema impenetrable
que no explica en forma alguna cómo se logra el resultado.
Tendríamos
que reflexionar en que si no sabemos cómo un chatbot capta los datos para llegar
al resultado, no podemos inferir cómo se podría controlar la información de lo
que ocurre en estos sistemas de IA, así como tampoco tenemos claridad sobre
cómo y en qué forma pudieran vulnerarse los derechos de los usuarios.
Debemos
considerar que normalmente los usuarios nos saltamos el primer paso para usar
una nueva aplicación, ya que generalmente aceptamos los términos y condiciones
de esta a pesar de no haberlos leído. Este es uno de los puntos más relevantes
en el manejo del ChatGPT, toda vez que, para iniciar su uso, advierte en sus
términos lo siguiente:
“La
información que se me provea durante una interacción deberá ser considerada
pública, no privada, porque no soy una plataforma segura de transmitir
información sensible o personal. No soy capaz de asegurar la seguridad o
confidencialidad de ninguna información que se intercambie durante esas
interacciones, y las conversaciones pueden ser almacenadas y usadas para la
investigación o procesos de entrenamiento. Por lo tanto, es importante
conducirse con precaución cuando se comparta información personal o sensible,
durante las interacciones que tenga conmigo o con cualquier otro modelo de
lenguaje de IA.”
Alrededor
de esta problemática habría que discutir si es posible que los términos y
condiciones de una compañía privada determinen que toda la información que sea
manejada durante la interacción en el chat se convierta en pública, a pesar de
que pudiera contar con derechos que la limiten al ámbito privado, en este caso,
así como también la posibilidad de que podrían vulnerarse los derechos de
Propiedad Intelectual e Industrial de la misma.
Otra
problemática severa sería conocer qué es lo que ocurre con los datos personales
y/o sensibles de los clientes a partir del uso de un Chatbot dentro de una
empresa, ya sea por instrucciones formales de sus directivos, o por un empleado
que decidiera realizar su trabajo con más rapidez con el apoyo de esta
herramienta.
A
su vez, es posible que pudieran vulnerarse las bases de datos de las empresas
con la información privada de sus usuarios; por ejemplo, imaginemos que a
través de estos chatbots se captaran usuarios de servicios financieros. Incluso,
sería importante considerar hasta qué punto pudiera bastar con que un solo empleado
transmitiera información que ponga en riesgo los datos internos de la compañía,
así como de sus clientes.
Todo
ello llevaría a colocar en riesgo a las empresas que por sí o a través de sus
empleados estuvieran violando sus avisos de privacidad, habiéndose obligado
previamente a cumplir las condiciones sobre ciertas restricciones para el uso
de la información de sus clientes, debido a que -sin leer o comprender los
términos y condiciones- estuvieran proporcionando datos de terceras personas al
momento de interactuar con el ChatGPT.
Aunado
a lo anterior, debemos considerar el recrudecimiento de la infodemia en la que
vivimos. Si la información contenida en los algoritmos recoge cualquier cosa
que se encuentre en internet y la toma como cierta, fidedigna o racional, aun
cuando pudiera ser información sesgada, prejuiciosa, falsa o errónea, se
afectarían los derechos de los ciudadanos en varios sentidos; por ejemplo, el
derecho a la verdad.
La
respuesta ante el cuestionamiento de qué tan seguro es el uso de estos sistemas
de IA es que, muy probablemente, no hay un solo país que se pudiera jactar de
que hoy por hoy, aún con sus normas vigentes, protejan los derechos de los
usuarios ante los posibles abusos que pudieran derivar de la manipulación de la
inteligencia artificial; es por ello que el reto será encontrar aquellas
lagunas jurídicas que se deriven del uso de estas nuevas tecnologías.
Este
problema es escalable, los términos y condiciones de un proveedor de servicios de
chatbot estaría colocándose por encima de la aplicación de las leyes emitidas
en ciertos ámbitos o territorios por sus congresos o parlamentos, afectando la
supremacía de la ley, y también -en dado momento- la seguridad nacional de los
países.
Este
tema debiera ser de suma relevancia en nuestro país donde no alcanzan los
sistemas jurídicos para regular la interacción entre los chatbots y los
usuarios, debiendo reconocer que estamos rebasados para afrontar los casos
prácticos en los que ocurriera la vulneración de derechos.
En
México, nuestros legisladores deberían estar trabajando en este desafío con
calidad de prioritario dentro de la lista de pendientes más relevantes, pues es
imposible detenernos ante un el mundo cuya tecnología avanza a una velocidad
vertiginosa, debiendo dimensionar lo que pudiera llegar a ocurrir ante la
existencia de los malos manejos de las herramientas de Inteligencia Artificial.