آغاز اجرای قانون جدید اتحادیه اروپا برای کنترل هوش مصنوعی
به گزارش اپ خونه، به زودی، اتحادیه اروپا میتواند استفاده از سیستمهای هوش مصنوعی که خطر “غیرقابل قبول” یا آسیبرسان تلقی شوند را ممنوع کند.
۲ فوریه اولین مهلت رعایت قانون هوش مصنوعی اتحادیه اروپا است. این قانون، که پارلمان اروپا پس از سالها توسعه در مارس گذشته تصویب کرد، یک چارچوب جامع برای تنظیم مقررات هوش مصنوعی به شمار میرود. این قانون در اول اوت بهطور رسمی لازمالاجرا شد و اکنون اولین مهلتهای رعایت آن آغاز شده است.
جزئیات این قانون در ماده ۵ آن مشخص شده است، اما بهطور کلی، این قانون طیف گستردهای از موارد استفاده را شامل میشود که در آنها هوش مصنوعی میتواند با افراد تعامل داشته باشد، از اپلیکیشنهای مصرفکننده گرفته تا محیطهای فیزیکی.
طبق این قانون، چهار سطح ریسک کلی برای سیستمهای هوش مصنوعی تعریف شده است:
- ریسک حداقل (مانند فیلترهای هرزنامه ایمیل)، که هیچ نظارتی روی آن اعمال نخواهد شد.
- ریسک محدود (مانند چتباتهای خدمات مشتری)، که تحت نظارت حداقلی خواهد بود.
- ریسک بالا (مانند هوش مصنوعی برای توصیههای پزشکی)، که تحت نظارت سنگین قرار میگیرد.
- ریسک غیرقابل قبول (تمرکز مهلت رعایت این ماه)، که بهطور کامل ممنوع خواهد شد. در این مرحله از اجرای قانون (یعنی تا ۲ فوریه)، تمرکز اصلی بر روی ممنوعیت سیستمهای هوش مصنوعی با ریسک غیرقابل قبول است و شرکتها باید اطمینان حاصل کنند که از این نوع سیستمها استفاده نمیکنند.
فعالیتهای غیرقابل قبول شامل موارد زیر هستند:
- هوش مصنوعی برای امتیازدهی اجتماعی (مثلاً ایجاد پروفایلهای ریسک بر اساس رفتار افراد).
- هوش مصنوعی که بهصورت زیرآستانهای یا فریبکارانه تصمیمات افراد را دستکاری میکند.
- هوش مصنوعی که از آسیبپذیریهایی مانند سن، ناتوانی یا وضعیت اقتصادی-اجتماعی سوءاستفاده میکند.
- هوش مصنوعی که بر اساس ظاهر افراد، احتمال ارتکاب جرم را پیشبینی میکند.
- هوش مصنوعی که از دادههای بیومتریک برای استنباط ویژگیهایی مانند گرایش جنسی استفاده میکند.
- هوش مصنوعی که دادههای بیومتریک را در مکانهای عمومی برای اجرای قانون بهصورت “زنده” جمعآوری میکند.
- هوش مصنوعی که احساسات افراد را در محیط کار یا مدرسه استنباط میکند.
- هوش مصنوعی که با جمعآوری تصاویر از اینترنت یا دوربینهای امنیتی، پایگاههای داده تشخیص چهره ایجاد یا گسترش میدهد.
شرکتهایی که در اتحادیه اروپا از این نوع سیستمهای هوش مصنوعی استفاده کنند، صرفنظر از محل استقرارشان، با جریمه مواجه خواهند شد. این جریمهها ممکن است تا ۳۵ میلیون یورو (~۳۶ میلیون دلار) یا ۷٪ از درآمد سالانه شرکت در سال مالی گذشته (هرکدام که بیشتر باشد) برسد.
با این حال، اجرای جریمهها مدتی طول خواهد کشید. “راب سامروی”، رئیس بخش فناوری در شرکت حقوقی “Slaughter and May” بریتانیا، در مصاحبهای گفت که سازمانها باید تا ۲ فوریه بهطور کامل مطابق با قانون باشند، اما مهلت مهم بعدی در ماه اوت خواهد بود. وی افزود:
“تا آن زمان، مشخص خواهد شد که چه نهادهایی مسئول نظارت بر اجرای قانون هستند و اعمال جریمهها و سایر مقررات اجرایی آغاز میشود.”
ضربالاجل ۲ فوریه بیشتر جنبه رسمی دارد.
در سپتامبر گذشته، بیش از ۱۰۰ شرکت “پیمان هوش مصنوعی اتحادیه اروپا” را امضا کردند، که یک تعهد داوطلبانه برای اجرای اصول قانون هوش مصنوعی قبل از اعمال رسمی آن است. از جمله امضاکنندگان این پیمان میتوان به آمازون، گوگل و OpenAI اشاره کرد که متعهد شدند سیستمهای هوش مصنوعی که احتمال دارد بهعنوان “ریسک بالا” طبقهبندی شوند را شناسایی کنند.
برخی از غولهای فناوری، مانند Meta و Apple، از امضای این پیمان خودداری کردند. استارتاپ فرانسوی Mistral، که یکی از بزرگترین منتقدان این قانون است، نیز این پیمان را امضا نکرد.
البته این بدان معنا نیست که شرکتهایی مانند Apple، Meta یا Mistral الزامات این قانون را نادیده خواهند گرفت. سامروی اشاره کرد که بسیاری از موارد ممنوعه در این قانون، در حال حاضر توسط اکثر شرکتها مورد استفاده قرار نمیگیرند.
“چالش اصلی سازمانها این است که آیا دستورالعملها، استانداردها و کدهای رفتاری مشخص، بهموقع ارائه خواهند شد یا خیر، و مهمتر از آن، آیا این قوانین شفافیت لازم را برای رعایت مقررات فراهم خواهند کرد؟”
برخی از ممنوعیتهای قانون هوش مصنوعی دارای استثنائاتی هستند.
به عنوان مثال، این قانون به نیروهای اجرای قانون اجازه میدهد تا در شرایط خاص، سیستمهای جمعآوری دادههای بیومتریک در مکانهای عمومی را برای جستجوی هدفمند (مانند یافتن یک فرد ربودهشده) یا برای جلوگیری از یک تهدید قریبالوقوع و قابلتوجه برای جان انسانها استفاده کنند.
این مورد نیازمند مجوز از نهادهای نظارتی مربوطه است و قانون تأکید میکند که تصمیمات نهایی نباید صرفاً بر اساس خروجی این سیستمها اتخاذ شود.
همچنین، برخی از موارد استفاده از هوش مصنوعی برای استنباط احساسات در محیطهای کاری و مدارس مجاز است، مشروط بر اینکه دلایل پزشکی یا ایمنی داشته باشد (مانند سیستمهای درمانی).
کمیسیون اروپا اعلام کرده که اوایل ۲۰۲۵ دستورالعملهای اضافی را منتشر خواهد کرد، اما هنوز این راهنماها در دسترس نیستند.
سامروی همچنین اشاره کرد که چگونگی تعامل این قانون با سایر مقررات موجود، مانند GDPR، NIS2 و DORA، همچنان نامشخص است. به گفته وی:
“قوانین مربوط به هوش مصنوعی بهصورت مستقل عمل نمیکنند. بلکه در تعامل با سایر مقررات مانند GDPR (قوانین حفظ حریم خصوصی)، NIS2 (امنیت سایبری) و DORA (مقررات تابآوری عملیاتی دیجیتال) خواهند بود. درک این تعاملات بهاندازه شناخت خود قانون هوش مصنوعی اهمیت دارد.”