近年、いくつかの主要なサービスで大規模なプライバシー事故が相次いだことで、プライバシーを尊重するAIツールが再び注目を集めています。先月、あるセキュリティ研究者が、Claude、ChatGPT、Geminiを基盤としたラッパーチャットボットのバックエンドの設定ミスにより、2,500万人のユーザーから3億件のメッセージが公開アクセス可能なデータベース内に存在していることを発見しました。LinkedIn、Google、Meta、OpenAIに関する別のプライバシー懸念も報告されています。
Conferはユーザーデータとプライバシー保護のために包括的なセキュリティ対策を施したプライバシー重視のAIツールです。メッセージをユーザーの端末で暗号化し、通信がデバイスを離れる前に保護される仕組みを提供します。この暗号化は、Trusted Execution Environment(信頼実行環境)と呼ばれるハードウェアで分離されたボールトと組み合わされており、デバイス上の他のプロセスから機密処理を守ることで、追加のセキュリティ層を提供します。
さらに、Conferのコードベースはオープンソースであり、リモート証明にも対応しています。この透明性により、ユーザーはプラットフォームのセキュリティ主張や整合性を検証できます。プライバシーを重視した方針の一環として、Conferはチャットログを保存せず、ユーザーデータを使ったトレーニングも行わず、広告もサポートしていません。セッション終了後はすべてのデータが即座に消去され、残存情報が一切残らないようになっています。
Conferはユーザーにアカウント作成を求めるものの、エイリアスメールの利用をサポートし、従来のパスワードに代わりパスキーを導入することでログインのセキュリティを強化しています。これらの対策は、Conferがユーザーのプライバシーとデータ保護を最大限に尊重する姿勢を示しており、プライバシー面での批判を受けた多くの主流AIツールとは一線を画しています。
Veniceは、ユーザーのデバイス上のローカルブラウザストレージにチャット履歴を暗号化して保存します。Veniceは会話内容にアクセスできません。召喚状でも保存されたチャットからデータを取得することはできません。Veniceはアカウントを作成せずに利用可能です。サインアップ時には、Veniceはエイリアスメールをサポートし、パスワードの代わりにパスキーを受け入れます。
先に述べた主流プラットフォームは、いくつかの最近のプライバシー問題と関連しています。先月、セキュリティ研究者がClaude、ChatGPT、Geminiを基にしたラッパーチャットボットのバックエンドの設定ミスにより、2,500万人のユーザーから3億件のメッセージが公開アクセス可能なデータベースに保存されているのを発見しました。LinkedInはユーザーを静かにAIトレーニングに参加させました。GoogleはAIモデルGeminiのためにGmailアクセスをデフォルトで有効にしました。Metaは、EUユーザーのFacebook投稿を長年にわたりトレーニングに利用するために「正当な利益」を理由に挙げました。裁判所は、OpenAIに対し削除済みを含むすべてのChatGPTログを法律的調査のために保存するよう命じました。
ここ数ヶ月で、Claude、ChatGPT、Geminiを基にしたラッパーチャットボットのバックエンドの設定ミスにより2,500万人のユーザーから3億件のメッセージが公開された問題、LinkedInがユーザーをAIトレーニングに参加させた件、GoogleがGeminiのためにGmailアクセスをデフォルトで有効にした件、MetaがEUユーザーのFacebook投稿を長年トレーニングに利用するため「正当な利益」を挙げた件、さらに裁判所がOpenAIに削除されたログも含むすべてのChatGPTログを保存するよう命じた件など、主流AIサービスで多数の注目されるプライバシー問題が発生しています。
Conferのような代替のプライバシーを尊重するAIツールは、端末上のメッセージ暗号化、ハードウェア分離されたトラステッドエグゼキューション環境、リモート認証を備えたオープンソースコードベース、チャットログなし、トレーニングなし、広告なし、セッション後のデータ非保存といった技術的保護策を導入しており、エイリアスメールとパスキーをサポートするアカウントオプションも備えています。
Veniceはユーザーのデバイスのローカルブラウザストレージにチャット履歴を暗号化して保存するため、Veniceは会話内容にアクセスできず、召喚状にもデータは提供されません。また、Veniceはアカウント不要での利用を可能にし、サインアップ時にはエイリアスメールやパスキーをサポートしています。


