اخبار اینترنت

Google مکالمات شما با Gemini را برای سال ها به صورت پیش فرض ذخیره می کند

به گزارش اپ خونه،  PSA (نوعی) گوگل در یک سند پشتیبانی جدید روش‌های جمع‌آوری داده‌ها را از کاربران برنامه‌های چت ربات Gemini خود برای وب، اندروید و iOS نشان می‌دهد.

گوگل خاطرنشان می‌کند که حاشیه‌نویس‌های انسانی به طور معمول مکالمات با Gemini را می‌خوانند، برچسب‌گذاری می‌کنند و پردازش می‌کنند

مشخص نیست که آیا این حاشیه نویس ها داخلی هستند یا برون سپاری شده اند، که ممکن است در مورد امنیت داده ها مهم باشد ؛ گوگل نمی گوید.

این مکالمات تا سه سال به همراه «داده های مرتبط» مانند زبان ها و دستگاه هایی که کاربر استفاده می کند و مکان آنها حفظ می شوند..

اکنون، گوگل به کاربران اجازه می دهد تا کنترل بیشتری بر روی اینکه کدام داده های مربوط به Gemini حفظ می شوند داشته باشند.

خاموش کردن Gemini Apps Activity در داشبورد My Activity Google (به طور پیش‌فرض فعال است) از ذخیره شدن مکالمات آینده با Gemini در یک حساب Google برای بررسی جلوگیری می‌کند (به این معنی که پنجره سه ساله اعمال نمی‌شود).

در همین حال، درخواست‌ها و مکالمات فردی با Gemini را می‌توان از صفحه فعالیت برنامه‌های Gemini حذف کرد.

اما گوگل می گوید که حتی زمانی که Gemini Apps Activity خاموش است، مکالمات Gemini تا ۷۲ ساعت در یک حساب Google ذخیره می شود تا “ایمنی و امنیت برنامه های Gemini حفظ شود و برنامه های Gemini بهبود یابد.”

گوگل می‌نویسد: «لطفاً اطلاعات محرمانه یا هر داده‌ای را که نمی‌خواهید بازبین ببیند یا گوگل برای بهبود محصولات، خدمات و فناوری‌های یادگیری ماشینی ما استفاده کند، وارد نکنید».

اگر منصف باشیم، سیاست‌های جمع‌آوری و نگهداری داده‌های GenAI گوگل با سیاست‌های رقبای خود تفاوت چندانی ندارد.

برای مثال OpenAI، همه چت‌ها را با ChatGPT به مدت ۳۰ روز ذخیره می‌کند، صرف نظر از اینکه ویژگی سابقه مکالمه ChatGPT خاموش باشد، به استثنای مواردی که کاربر در یک طرح در سطح سازمانی با خط‌مشی حفظ داده‌های سفارشی مشترک شده باشد.

اما سیاست گوگل چالش‌های ذاتی در ایجاد تعادل در حریم خصوصی با توسعه مدل‌های GenAI را نشان می‌دهد که از داده‌های کاربر برای بهبود خود تغذیه می‌کنند.

سیاست‌های لیبرال حفظ داده‌های GenAI، فروشندگان را در گذشته نزدیک به تنظیم‌کننده‌ها واداشته است.

تابستان گذشته، FTC اطلاعات دقیقی را از OpenAI درخواست کرد که چگونه این شرکت داده‌های مورد استفاده برای آموزش مدل‌های خود را بررسی می‌کند، از جمله داده‌های مصرف‌کننده – و اینکه چگونه این داده‌ها در صورت دسترسی توسط اشخاص ثالث محافظت می‌شوند.

در خارج از کشور، تنظیم‌کننده حریم خصوصی داده‌های ایتالیا، سازمان حفاظت از داده‌های ایتالیا، گفت که OpenAI فاقد «پایه قانونی» برای جمع‌آوری و ذخیره‌سازی انبوه داده‌های شخصی برای آموزش مدل‌های GenAI خود است.

با گسترش ابزارهای GenAI، سازمان ها به طور فزاینده ای نسبت به خطرات حفظ حریم خصوصی محتاط می شوند.

یک نظرسنجی اخیر از سیسکو نشان داد که ۶۳ درصد از شرکت‌ها محدودیت‌هایی در مورد اینکه چه داده‌هایی را می‌توان در ابزارهای GenAI وارد کرد، ایجاد کرده‌اند.

در حالی که ۲۷٪ GenAI را به طور کلی ممنوع کرده اند. همین نظرسنجی نشان داد که ۴۵ درصد از کارمندان داده‌های «مشکل‌آمیز» را در ابزارهای GenAI از جمله اطلاعات کارمندان و پرونده‌های غیر عمومی درباره کارفرمای خود وارد کرده‌اند.

OpenAI، مایکروسافت، آمازون، گوگل و دیگران محصولات GenAI را برای شرکت‌هایی ارائه می‌کنند که صراحتاً داده‌ها را برای مدت زمان طولانی حفظ نمی‌کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا