Algoritma

¿Puede un chatbot guardar un secreto? La privacidad de nuestras conversaciones con una IA como LuzIA

La conversación con un chatbot que responde como un humano puede hacernos confiar demasiado. Qué pasa con la privacidad de los chatbots
Luis Quintero
Tiempo de lectura: 11 min

Tiene nombre de mujer y la ves como un contacto en tu WhatsApp. Pero no es una amiga, es código informático que combina varios modelos de inteligencia artificial. Sus creadores no recomiendan su uso a menores de edad y, por privacidad, no deberías contarle tus secretos a un chatbot. LuzIA es probablemente la app española que más rápido han agregado los hispanohablantes a su WhatsApp, de la mano de la popularidad de ChatGPT. En dos meses desde su lanzamiento ha llegado a tener un millón de usuarios de más de 40 países. 

Publicidad

Este chatbot es un símil de ChatGPT que funciona en WhatsApp, a diferencia del original que sólo está disponible al público vía web, y se accede a él agregándolo como contacto en la app de mensajería. Una vez abierto un chat, devuelve respuestas a las consultas que le hacemos vía texto, y además tiene algunas funcionalidades extra, como las de transcribir los audios que uno le envía y la de generar imágenes. 

Desde su lanzamiento, varios medios han publicado artículos en los que explican cómo instalar LuzIA en el móvil, destacan su gratuidad, la sencillez de su uso, la españolidad de sus creadores, y sobre todo, la eficacia de su sistema de transcripción de audios.

Esta startup, fundada por Álvaro Martinez Higes, Javier Andrés y Carlos Pérez, parte de la idea de crear una plataforma que simplifique el acceso a la IA a la gran mayoría de las personas. “Somos como un canuto”, dice varias veces Andrés en conversación con Newtral.es, para explicar la idea de que han integrado varios sistemas y los hacen accesibles a través de un canal como WhatsApp. 

La privacidad de un chatbot cuando el robot parece humano

LuzIA originalmente se llamaba Chatify, pero luego sus fundadores pensaron que asignarle un nombre “humano” sería “mucho más potente”, y llegaron a LuzIA tras descartar MatIAs y SofIA. 

La naturaleza conversacional de estos modelos y la ilusión de estar hablando con alguien que parece un humano puede hacer que bajemos la guardia y demos al bot más información personal o privada de la que sería aconsejable, han advertido algunos expertos citados por Kate O’Flaherty en The Guardian. 

Publicidad

María González, socia de Ecija y abogada especialista en Privacidad dice que lo que sucede con este chatbot también pasa con Siri o con Alexa, que “son humanoides que pueden hacer que nos confiemos, perdamos el foco de que es una IA y no una persona, y que puedan dar pie a que se facilite más información que la que debamos”. 

Según la abogada, las empresas “se aprovechan de esa humanización, y tienen una responsabilidad, deberían también poner las herramientas para proteger unas líneas éticas en esa relación con quien les está consultando”, señala. 

La confidencialidad y la privacidad de los chatbots 

Apple ha prohibido a sus empleados usar ChatGPT u otras IA generativas por temor a filtraciones de información confidencial, y en España otras grandes empresas como Telefónica, BBVA y Redeia (Red Eléctrica) también han vetado o limitado su uso. González dice que “este tipo de herramientas, aunque sean gratuitas, utilizan todo tipo de información para seguir modelizando el algoritmo que va por detrás para dar respuestas, lo que supone un riesgo muy elevado de que se difunda esa información”, y que aquí están los principales riesgos, además de datos personales, a nivel de información corporativa. 

Desde LuzIA dicen tomarse en serio la privacidad del chatbot. Andrés asegura que “desde el día uno” su compromiso es que todos los mensajes sean anónimos. La información “obviamente pasa por nosotros para que se la mandemos a OpenAI y Meta”, dice Andrés, “pero a partir de ahí para nosotros toda esa información es anónima”. 

Hay 16 tipos de fines de la recolección de datos personales listados por LuzIA en su política de privacidad. Dos de los abogados consultados por Newtral.es concluyen que estos términos son muy genéricos e imprecisos. Jorge Morell Ramos, abogado especializado en derecho de internet para la empresa, cree que “hay muchos fines y quizás no todos podrían salvarse con un simple consentimiento”. Divulgar la información para casos como cumplir cualquier propósito para el cual se proporcionó o para “cualquier otro propósito que se le informe cuando nos proporcione la información», le parece al jurista “algo genérico y poco claro”. 

Publicidad

Por la cantidad de usuarios de WhatsApp, LuzIA puede estar haciendo tratamiento de datos a una escala muy considerable. Según Morell Ramos, con lo que especifica la Agencia Española de Protección de Datos (dado el uso de «nuevas tecnologías o un uso innovador de tecnologías consolidadas, incluyendo la utilización de tecnologías a una nueva escala»), no es descartable que esta startup y su chatbot tengan que cumplir con obligaciones relativas a la privacidad como contar con un delegado de protección de datos o la realización de una evaluación de impacto.

La Agencia Española de Protección de Datos, consultada por Newtral en relación a la información que se da a estos chatbots, recomienda limitar la cantidad de datos personales que se dan, y no aceptar que se solicite consentimiento sin que esté claramente definido para qué se van a tratar los datos.

Proveedores y modelos de IA que están detrás de LuzIA

Como el juego de mayúsculas de LuzIA indica, el chatbot utiliza tecnologías de IA de varios modelos para las diferentes funciones. Integran ChatGPT a través de una API de pago para generar los textos, a la que añaden un filtro para que las respuestas sean más reducidas, y más prácticas, al ser leído vía móvil. 

Utilizan también Whisper, un sistema de reconocimiento automático de voz que ha sido entrenado con 680.000 horas de datos supervisados multilingües y multitarea recogidos de la web. Este modelo es de código abierto, pero la API es comercializada por OpenAI, a quien LuzIA debe pagar por su uso. 

Para generar las imágenes que los usuarios le piden usando el comando “imagina”, utilizan Stable Diffusion, un modelo de código abierto que no tiene coste económico para la startup, y cuyo proveedor es Stability AI. Además, utilizan el servicio de WhatsApp como canal de comunicación, proporcionado por Meta. 

Publicidad

Privacidad: Qué pasa con lo que le contamos a un chatbot

Como bien dicen desde la compañía, LuzIA tiene cifrado, porque funciona sobre WhatsApp. Esta app incorpora un cifrado de extremo a extremo que, como hemos contado en Newtral.es, garantiza la privacidad del chatbot en cuanto a que ningún tercero accede al contenido de los mensajes. Este tipo de cifrado impide a intermediarios, como servidores o proveedores de telecomunicaciones, espiar los mensajes, porque no tienen las claves criptográficas para descifrarlos. 

Pero el receptor de esos mensajes sí puede leerlos, como es obvio, y en este caso, LuzIA es la receptora de las consultas que enviamos. No sólo puede leerlos, sino que debe enviarlos a las empresas que son sus proveedores para dar el servicio a sus usuarios. 

Aunque sus fundadores declaran que esa información es anónima para ellos, la política de privacidad, que acaban de actualizar en la web del chatbot, dice otra cosa. LuzIA puede recolectar toda la información que se le envía en las conversaciones, los textos, la voz de los audios y la imagen que pueda figurar en el estado de WhatsApp. También recogen datos sobre el dispositivo del usuario, páginas y archivos a los que se accede, hora de acceso, así como datos que pueden revelar la localización, como la dirección IP. 

El texto legal también advierte que pueden guardar un extracto de la conversación “para personalizar futuras interacciones”. A Morell Ramos esto le parece llamativo: “Es excesivo”, señala. 

Los datos que recopilan pueden compartirlos con terceros, como sus proveedores, las empresas que prestan las tecnologías que utiliza el chatbot. En la actualidad son OpenAI, Stability AI y WhatsApp, según sus términos legales, y LuzIA no se hace responsable de las prácticas de privacidad de ninguna plataforma, sitio web o aplicación que no sea controlada por ellos. Los tres proveedores citados utilizan datos masivos como fuente de sus productos y servicios. Uno de ellos, Stability AI, tiene en estos momentos dos demandas en tribunales de EE.UU. por haber utilizado material con copyright para entrenamiento de Stable Diffusion, el modelo de IA generativa de imágenes. 

La “universalidad” y un ejercicio para entender los costes de LuzIA

La seguridad y la privacidad en el uso de este chatbot son una de las promesas que los creadores de LuzIA han destacado en un manifiesto publicado en su web. Otra es la “universalidad”. Como creen que “todas las personas tienen derecho a acceder a la IA, sin importar su origen o situación económica”, se comprometen a ofrecer siempre “una versión gratuita e hiperaccesible” del servicio. 

Pero esto no es fácil de mantener. Los costes de las funcionalidades de este servicio no son precisamente bajos. Andrés explica que el canal de WhatsApp les cobra cada vez que envían un mensaje, a lo que se suman los pagos por servicios a OpenAI, tanto por la API de ChatGPT, como por las transcripciones de los audios que hace con Whisper. 

Según un cálculo hecho por Newtral.es con base en la cantidad de mensajes que LuzIA envía por día (1.500.000, según la startup) y el precio más económico del servicio publicado en la web de OpenAI, sólo los mensajes de texto que envía y recibe LuzIA cada día le podrían costar unos 345 euros. Pero este sería el más bajo de los costes.

No estamos considerando los costes del acuerdo con Meta para usar el canal de Whatsapp, cuyos precios no están publicados sino que se acuerdan con la empresa, ni los costes del servicio de Whisper, porque no sabemos cuántos mensajes de audio diarios transcribe LuzIA. A modo de ejemplo y para entender de cuánto dinero estamos hablando, si un tercio (500.000) de los mensajes que recibe cada día LuzIA fuesen audios para transcribir de un minuto, lo que esta startup tendría que pagar serían 2.767 euros por día. En los dos meses que lleva de vida, LuzIA ya podría llevar gastado sólo en transcripciones de audio 166.000 euros, por lo bajo. No es de extrañar que los fundadores adviertan que “no son una ONG” y el servicio es gratuito “por ahora”. 

En busca de modelos de negocio

¿Quién paga la fiesta? LuzIA está financiada por A Star Capital (A*), un fondo de inversión de Silicon Valley, cuyo fundador, Kevin Hartz, conocía a Andrés desde que vendió Ticketea, su anterior startup. Los creadores de LuzIA pensaban cerrarla con un modelo de suscripción de pago, pero el inversor ha decidido financiar el crecimiento, por lo que su principal objetivo por ahora es captar la mayor cantidad de usuarios posible. 

De esta manera, dice Andrés, podrán entender los casos de uso que generan más valor y a partir de ahí surgirán vías de monetización, que aún no están claras. 

Desde LuzIA están muy atentos al feedback que reciben de los usuarios. Algunos empresarios les han preguntado por la posibilidad de que su negocio aparezca en las respuestas cuando se le piden recomendaciones a LuzIA, por ejemplo, y eso podría hacerse entrenando un modelo con esos datos locales, agregándolo al servicio que ya dan con ChatGPT. Andrés piensa que podría ser uno de esos modelos de negocio que están buscando. 

La ley de Inteligencia Artificial de la UE puede ponerles las cosas difíciles cuando entre en vigor. Según Morell Ramos, “cualquier IA generativa capaz de tener ‘alucinaciones’ o generar desinformación a gran escala tipo ChatGPT podría verse condicionada por el reglamento europeo”, y servicios como este chatbot “tendrán que tomarse más en serio algunas cuestiones” en torno a la privacidad, según el jurista. 

Fuentes