Google مکالمات شما با Gemini را برای سال ها به صورت پیش فرض ذخیره می کند
به گزارش اپ خونه، PSA (نوعی) گوگل در یک سند پشتیبانی جدید روشهای جمعآوری دادهها را از کاربران برنامههای چت ربات Gemini خود برای وب، اندروید و iOS نشان میدهد.
گوگل خاطرنشان میکند که حاشیهنویسهای انسانی به طور معمول مکالمات با Gemini را میخوانند، برچسبگذاری میکنند و پردازش میکنند
مشخص نیست که آیا این حاشیه نویس ها داخلی هستند یا برون سپاری شده اند، که ممکن است در مورد امنیت داده ها مهم باشد ؛ گوگل نمی گوید.
این مکالمات تا سه سال به همراه «داده های مرتبط» مانند زبان ها و دستگاه هایی که کاربر استفاده می کند و مکان آنها حفظ می شوند..
اکنون، گوگل به کاربران اجازه می دهد تا کنترل بیشتری بر روی اینکه کدام داده های مربوط به Gemini حفظ می شوند داشته باشند.
خاموش کردن Gemini Apps Activity در داشبورد My Activity Google (به طور پیشفرض فعال است) از ذخیره شدن مکالمات آینده با Gemini در یک حساب Google برای بررسی جلوگیری میکند (به این معنی که پنجره سه ساله اعمال نمیشود).
در همین حال، درخواستها و مکالمات فردی با Gemini را میتوان از صفحه فعالیت برنامههای Gemini حذف کرد.
اما گوگل می گوید که حتی زمانی که Gemini Apps Activity خاموش است، مکالمات Gemini تا ۷۲ ساعت در یک حساب Google ذخیره می شود تا “ایمنی و امنیت برنامه های Gemini حفظ شود و برنامه های Gemini بهبود یابد.”
گوگل مینویسد: «لطفاً اطلاعات محرمانه یا هر دادهای را که نمیخواهید بازبین ببیند یا گوگل برای بهبود محصولات، خدمات و فناوریهای یادگیری ماشینی ما استفاده کند، وارد نکنید».
اگر منصف باشیم، سیاستهای جمعآوری و نگهداری دادههای GenAI گوگل با سیاستهای رقبای خود تفاوت چندانی ندارد.
برای مثال OpenAI، همه چتها را با ChatGPT به مدت ۳۰ روز ذخیره میکند، صرف نظر از اینکه ویژگی سابقه مکالمه ChatGPT خاموش باشد، به استثنای مواردی که کاربر در یک طرح در سطح سازمانی با خطمشی حفظ دادههای سفارشی مشترک شده باشد.
اما سیاست گوگل چالشهای ذاتی در ایجاد تعادل در حریم خصوصی با توسعه مدلهای GenAI را نشان میدهد که از دادههای کاربر برای بهبود خود تغذیه میکنند.
سیاستهای لیبرال حفظ دادههای GenAI، فروشندگان را در گذشته نزدیک به تنظیمکنندهها واداشته است.
تابستان گذشته، FTC اطلاعات دقیقی را از OpenAI درخواست کرد که چگونه این شرکت دادههای مورد استفاده برای آموزش مدلهای خود را بررسی میکند، از جمله دادههای مصرفکننده – و اینکه چگونه این دادهها در صورت دسترسی توسط اشخاص ثالث محافظت میشوند.
در خارج از کشور، تنظیمکننده حریم خصوصی دادههای ایتالیا، سازمان حفاظت از دادههای ایتالیا، گفت که OpenAI فاقد «پایه قانونی» برای جمعآوری و ذخیرهسازی انبوه دادههای شخصی برای آموزش مدلهای GenAI خود است.
با گسترش ابزارهای GenAI، سازمان ها به طور فزاینده ای نسبت به خطرات حفظ حریم خصوصی محتاط می شوند.
یک نظرسنجی اخیر از سیسکو نشان داد که ۶۳ درصد از شرکتها محدودیتهایی در مورد اینکه چه دادههایی را میتوان در ابزارهای GenAI وارد کرد، ایجاد کردهاند.
در حالی که ۲۷٪ GenAI را به طور کلی ممنوع کرده اند. همین نظرسنجی نشان داد که ۴۵ درصد از کارمندان دادههای «مشکلآمیز» را در ابزارهای GenAI از جمله اطلاعات کارمندان و پروندههای غیر عمومی درباره کارفرمای خود وارد کردهاند.
OpenAI، مایکروسافت، آمازون، گوگل و دیگران محصولات GenAI را برای شرکتهایی ارائه میکنند که صراحتاً دادهها را برای مدت زمان طولانی حفظ نمیکنند.