GenAI گوگل در اروپا با ارزیابی ریسک حریم خصوصی مواجه است
به گزارش اپ خونه، تنظیم کننده اصلی حریم خصوصی گوگل در اتحادیه اروپا تحقیقاتی را در مورد اینکه آیا قوانین حفاظت از داده های این اتحادیه در رابطه با استفاده از اطلاعات افراد برای آموزش هوش مصنوعی مولد را رعایت کرده است یا خیر، آغاز کرده است.
به طور خاص در حال بررسی این موضوع است که آیا غول فناوری نیاز به انجام ارزیابی تأثیر حفاظت از داده (DPIA) دارد تا به طور فعال خطراتی را که فناوریهای هوش مصنوعی آن برای حقوق و آزادیهای افرادی که از اطلاعاتشان برای آموزش مدلها استفاده شده است در نظر بگیرد.
ابزارهای مولد هوش مصنوعی برای تولید دروغهایی با صدای معقول بدنام هستند. این مورد، همراه با توانایی ارائه اطلاعات شخصی در صورت تقاضا، خطرات قانونی زیادی را برای سازندگان آنها ایجاد می کند.
کمیسیون حفاظت از دادههای ایرلند (DPC)، که بر انطباق Google با مقررات عمومی حفاظت از دادههای بلوک (GDPR) نظارت میکند، این اختیار را دارد که جریمهای تا ۴ درصد از گردش مالی سالانه جهانی Alphabet (نهاد اصلی Google) را برای هرگونه نقض تأیید شده وضع کند.
گوگل چندین ابزار مولد هوش مصنوعی را توسعه داده است، از جمله یک خانواده کامل از مدلهای زبان بزرگ (LLM) که با نام تجاری Gemini ( Bard سابق) شناخته میشوند.
از این فناوری برای تقویت چت ربات های هوش مصنوعی، از جمله برای بهبود جستجوی وب استفاده میکند.
زیربنای این ابزارهای هوش مصنوعی برای مصرف کننده، گوگل LLM به نام PaLM2 است که سال گذشته در کنفرانس توسعه دهندگان I/O خود راه اندازی کرد.
این که چگونه گوگل این مدل پایه هوش مصنوعی را توسعه داده است، همان چیزی است که DPC ایرلند می گوید بر اساس بخش ۱۱۰ قانون حفاظت از داده های ایرلند در سال ۲۰۱۸ که GDPR را به قانون ملی منتقل می کند، در حال بررسی است.
آموزش مدلهای GenAI معمولاً به حجم وسیعی از دادهها نیاز دارد و انواع اطلاعاتی که سازندگان LLM به دست آوردهاند، و همچنین نحوه و مکان دریافت آن، به طور فزایندهای در رابطه با طیف وسیعی از نگرانیهای قانونی، از جمله حق چاپ و حریم خصوصی مورد بررسی قرار میگیرند.
در مورد دوم، اطلاعاتی که به عنوان خوراک آموزشی هوش مصنوعی استفاده میشود و حاوی اطلاعات شخصی افراد اتحادیه اروپا است، مشمول قوانین حفاظت از دادههای این اتحادیه است، خواه از اینترنت عمومی حذف شده باشد یا مستقیماً از کاربران به دست آمده باشد.
به همین دلیل است که تعدادی از LLM قبلاً با سؤالاتی – و برخی از اجرای GDPR – در رابطه با رعایت حریم خصوصی، از جمله OpenAI، سازنده GPT (و ChatGPT) مواجه شده اند و Meta که مدل Llama AI را توسعه می دهد نیز دارای ابهام است.
ایلان ماسک نیز شکایات GDPR و خشم DPC را از استفاده از دادههای افراد برای آموزش هوش مصنوعی به خود جلب کرده است – که منجر به رسیدگی دادگاه و تعهد X برای محدود کردن پردازش دادههای خود شد اما تحریمی نداشت.
اگرچه اگر DPC پردازش دادههای کاربر را برای آموزش ابزار هوش مصنوعی خود تشخیص دهد، گروک این رژیم را نقض کرده است، X همچنان میتواند با جریمه GDPR روبرو شود.
بررسی DPIA DPC در GenAI گوگل آخرین اقدام نظارتی در این زمینه است.
تحقیقات قانونی به این سؤال مربوط میشود که آیا Google به تعهداتی که ممکن است طبق ماده ۳۵ مقررات حفاظت از دادههای عمومی (ارزیابی تأثیر حفاظت از دادهها) ارزیابی میکرده باشد، پیش از پرداختن به پردازش آن پایبند بوده است.
DPC در یک بیانیه مطبوعاتی نوشت: دادههای شخصی سوژههای داده اتحادیه اروپا/EEA مرتبط با توسعه مدل پایه هوش مصنوعی، Pathways Language Model 2 (PaLM 2) است.
این نشان میدهد که DPIA میتواند «در حصول اطمینان از اینکه حقوق و آزادیهای اساسی افراد بهاندازه کافی در نظر گرفته شده و محافظت میشود، زمانی که پردازش دادههای شخصی احتمالاً منجر به ریسک بالایی میشود، اهمیت زیادی داشته باشد».
«این تحقیق قانونی بخشی از تلاشهای گستردهتر DPC است که در همکاری با قانونگذاران همتای اتحادیه اروپا/EEA [منطقه اقتصادی اروپا] در تنظیم پردازش دادههای شخصی افراد موضوع داده اتحادیه اروپا/منطقه اقتصادی اروپا در توسعه مدلهای هوش مصنوعی کار میکند.»
DPC تلاشهای جاری شبکه مجریان GDPR این بلوک برای دستیابی به نوعی اجماع در مورد بهترین نحوه اعمال قانون حفظ حریم خصوصی در ابزارهای GenAI را اضافه کرد.
گوگل با سوالاتی در مورد منابع داده مورد استفاده برای آموزش ابزارهای GenAI خود درگیر نشد، اما جی استول، سخنگوی آن، بیانیهای در گوگل نوشت:
«ما تعهدات خود را تحت GDPR جدی میگیریم و برای پاسخگویی به سؤالات آنها با DPC کار سازندهای خواهیم داشت. »