최근 몇 달 동안 여러 주요 서비스에서 고프로파일 개인정보 사건이 발생한 이후 개인정보 보호 AI 도구가 다시 주목받고 있습니다. 지난달 한 보안 연구원은 Claude, ChatGPT, Gemini 기반 래퍼 챗봇의 잘못 구성된 백엔드로 인해 2,500만 사용자로부터 3억 개의 메시지가 공개적으로 접근 가능한 데이터베이스에 저장된 것을 발견했습니다. LinkedIn, Google, Meta, OpenAI와 관련된 별도의 개인정보 우려도 보고되었습니다.
Confer는 사용자 데이터와 개인정보를 보호하기 위해 종합적인 보안 조치를 실행하는 개인정보 보호 AI 도구입니다. 이 도구는 사용자의 기기에서 메시지를 암호화하여 통신이 기기를 떠나기 전부터 안전하게 보호되도록 합니다. 이 암호화는 신뢰할 수 있는 실행 환경(Trusted Execution Environment)으로 알려진 하드웨어 격리 금고와 결합되어 기기 내 다른 프로세스로부터 민감한 작업을 추가로 보호합니다.
더욱이, Confer의 코드베이스는 오픈 소스이며 원격 증명을 지원합니다. 이 투명성은 사용자가 플랫폼의 보안 주장과 무결성을 검증할 수 있게 합니다. 개인정보 중심 정책의 일환으로, Confer는 채팅 로그를 저장하지 않고, 사용자 데이터를 이용한 학습을 하지 않으며, 광고를 지원하지 않습니다. 세션이 종료되면 모든 데이터가 즉시 삭제되어 잔여 정보가 남지 않도록 보장합니다.
Confer는 사용자가 계정을 생성해야 하지만, 가명 이메일 사용을 지원하며 전통적인 비밀번호 대신 패스키를 사용하여 로그인 보안을 강화했습니다. 이러한 조치는 사용자 개인정보와 데이터 보호를 극대화하려는 Confer의 의지를 강조하며, 개인정보 관행으로 인해 논란이 된 많은 주류 AI 도구들과 차별화됩니다.
Venice는 사용자의 기기에 있는 로컬 브라우저 저장소에 대화 기록을 암호화하여 저장합니다. Venice는 대화 내용에 접근할 수 없습니다. 영장에 의해서도 저장된 대화에서 어떤 데이터도 제공되지 않습니다. Venice는 계정을 만들지 않고도 사용할 수 있습니다. 회원가입 시 Venice는 가명 이메일을 지원하고 비밀번호 대신 패스키를 허용합니다.
앞서 언급한 주요 플랫폼들은 최근 여러 개인정보 문제와 연관되어 왔습니다. 지난달 한 보안 연구원은 Claude, ChatGPT, Gemini 기반의 래퍼 챗봇의 백엔드 설정 오류로 인해 2,500만 사용자로부터 3억 건의 메시지가 공개적으로 접근 가능한 데이터베이스에 저장된 것을 발견했습니다. LinkedIn은 사용자들을 몰래 AI 학습에 참여시켰고, Google은 AI 모델 Gemini를 위해 기본값으로 Gmail 접근 권한을 활성화했습니다. Meta는 유럽 사용자들의 수년간 Facebook 게시물에 대해 ‘정당한 이익’을 근거로 학습을 진행했다고 밝혔습니다. 법원은 OpenAI에 삭제된 로그를 포함한 모든 ChatGPT 기록의 보존을 명령했습니다.
최근 몇 달간 주요 AI 서비스에서 여러 고속도 개인정보 문제가 발생했습니다. Claude, ChatGPT, Gemini 기반 래퍼 챗봇의 백엔드 설정 오류로 2,500만 사용자로부터 3억 건의 메시지가 노출된 사건, LinkedIn의 AI 학습 참여 강제, Google의 Gemini를 위한 Gmail 기본 접근 허용, Meta의 EU 사용자 Facebook 게시물에 대한 ‘정당한 이익’ 근거 학습, 그리고 법원이 OpenAI에 삭제 로그를 포함한 모든 ChatGPT 기록 보존을 명령한 사건 등이 포함됩니다.
Confer와 같은 대체 개인정보 보호 AI 도구는 기기 내 메시지 암호화, 하드웨어 고립 신뢰 실행 환경, 원격 증명을 갖춘 오픈소스 코드베이스, 대화 기록 없음, 학습 없음, 광고 없음, 세션 후 데이터 저장 없음 등의 기술적 보호 방식을 구현하며, 가명 이메일과 패스키를 지원하는 계정 옵션도 제공합니다.
베니스는 대화 내용을 암호화하여 사용자의 기기 내 로컬 브라우저 저장소에 저장하므로 베니스가 대화 내용을 접근할 수 없으며, 소환장에도 데이터가 제공되지 않습니다. 또한 계정 없이도 사용할 수 있으며 가입 시 별칭 이메일과 패스키를 지원합니다.


