Las herramientas de IA que respetan la privacidad han ganado nueva atención después de que varios servicios convencionales experimentaran incidentes de privacidad de alto perfil en los últimos meses. El mes pasado, un investigador de seguridad encontró 300 millones de mensajes de 25 millones de usuarios en una base de datos accesible públicamente debido a una configuración incorrecta en el backend de un chatbot wrapper construido sobre Claude, ChatGPT y Gemini. Se reportaron preocupaciones separadas de privacidad que involucraban a LinkedIn, Google, Meta y OpenAI.
Confer es una herramienta de IA que respeta la privacidad y que implementa medidas de seguridad integrales para proteger los datos y la privacidad de los usuarios. Encripta los mensajes en el dispositivo, asegurando que las comunicaciones estén seguras antes de salir del dispositivo del usuario. Esta encriptación se combina con el uso de una bóveda aislada por hardware, conocida como Entorno de Ejecución Confiable, que añade una capa extra de seguridad al proteger las operaciones sensibles de otros procesos en el dispositivo.
Además, el código de Confer es de código abierto y permite la atestación remota. Esta transparencia permite a los usuarios verificar las afirmaciones de seguridad y la integridad de la plataforma. Contribuyendo a sus políticas centradas en la privacidad, Confer no almacena registros de chat, no utiliza los datos de los usuarios para entrenamiento y no soporta publicidad. Una vez que termina una sesión, cualquier dato se elimina inmediatamente, asegurando que no quede información residual.
Si bien Confer requiere que los usuarios creen cuentas, soporta el uso de correos alias y ha reemplazado las contraseñas tradicionales por llaves de acceso para mejorar la seguridad en el inicio de sesión. Estas medidas subrayan el compromiso de Confer con maximizar la privacidad del usuario y la protección de datos, distinguiéndolo de muchas herramientas de IA convencionales que han sido objeto de escrutinio por sus prácticas de privacidad.
Venice almacena el historial de chat cifrado en el almacenamiento local del navegador en el dispositivo del usuario. Venice no puede acceder al contenido de las conversaciones. Las citaciones judiciales no proporcionan datos de los chats almacenados. Venice se puede usar sin crear una cuenta. Para los registros, Venice admite correos electrónicos alias y acepta claves de acceso en lugar de contraseñas.
Las plataformas principales mencionadas anteriormente han estado vinculadas a varios problemas recientes de privacidad. El mes pasado, un investigador de seguridad encontró 300 millones de mensajes de 25 millones de usuarios en una base de datos accesible públicamente debido a una configuración incorrecta del backend en un chatbot envoltorio construido sobre Claude, ChatGPT y Gemini. LinkedIn silenciosamente inscribió a los usuarios en el entrenamiento de IA. Google habilitó el acceso de Gmail por defecto para su modelo de IA Gemini. Meta citó “interés legítimo” para entrenar con años de publicaciones de usuarios de Facebook en la UE. Un tribunal ordenó a OpenAI preservar todos los registros de ChatGPT, incluidos los eliminados, para descubrimiento legal.
En los últimos meses se han presentado varios problemas de privacidad de alto perfil en servicios de IA convencionales, incluyendo la exposición reportada de 300 millones de mensajes de 25 millones de usuarios debido a una configuración incorrecta del backend en un chatbot envoltorio construido sobre Claude, ChatGPT y Gemini, LinkedIn inscribiendo a usuarios en el entrenamiento de IA, Google habilitando acceso a Gmail por defecto para Gemini, Meta citando “interés legítimo” para entrenar con años de publicaciones de usuarios de Facebook en la UE, y una orden judicial que exige a OpenAI preservar todos los registros de ChatGPT, incluyendo los eliminados.
Herramientas alternativas de IA que respetan la privacidad como Confer implementan protecciones técnicas que incluyen cifrado de mensajes en el dispositivo, un Entorno de Ejecución Confiable aislado por hardware, una base de código de código abierto con atestación remota, políticas de no guardar registros de chat, sin entrenamiento, sin publicidad y sin almacenamiento de datos después de las sesiones, además de opciones de cuenta que soportan correos electrónicos alias y claves de acceso.
Venice almacena el historial de chat cifrado en el almacenamiento local del navegador en el dispositivo del usuario, por lo que Venice no puede acceder al contenido de las conversaciones, las citaciones no generan datos, y Venice permite su uso sin una cuenta mientras admite alias de correo electrónico y claves de acceso para el registro.


