GoogleのGemini AI は最近、ユーザーの同意なしにプライベートなドライブ文書を自動的に要約するとして批判を浴びている。この機能は無効にできないため、ユーザーから苦情が寄せられ、プライバシーとユーザー制御に関する重大な懸念が生じている。
この問題の主な原因の 1 つは、 Gemini AI のプライバシー設定が明確で簡単にアクセスできないことです。ユーザーは、自動要約機能を制御または無効にできないことに不満を表明しています。
この透明性の欠如により、不正なスキャンの原因は内部システムの誤動作や不具合ではないかという憶測が広まっています。
問題の発見
ユーザーのケビン・バンクスターさんは、自分の許可なくGemini自分の個人的な税務書類を要約していたことを発見したとTwitterで体験をシェアした。
彼はこの機能を要求していないのに、これまで知らされていなかった設定を見つけて変更する必要があることに驚き、イライラした。Bankster 氏の説明によると、この問題はGoogleドライブと特定のドキュメント タイプに特有のものであるようだ。
興味深いことに、彼が最終的に設定トグルを見つけたとき、 Gmail 、ドライブ、ドキュメントではすでに無効になっていました。さらに、トグルは、 Geminiのボットが最初に彼に指示した場所とはまったく異なる場所にありました。
GoogleのGemini AI のスキャン問題は、データプライバシー保護に関する AI 企業の取り組みの重要性を浮き彫りにしている。Google Googleような大規模企業は、ユーザーの信頼を維持するためにきめ細かなユーザーコントロールを優先する必要があるが、今回のケースでは、ユーザーのプライバシー設定を尊重しなかったことでそれが失敗した。
この事件は、AI 導入におけるデータ プライバシーと、個人情報に対するユーザー コントロールの段階的な低下に関する幅広い懸念も引き起こしています。ユーザーは、機密文書のスキャンや処理に関わる機能のオプトインまたはオプトアウトを選択できる必要があります。