» هوش مصنوعی » آغاز اجرای قانون جدید اتحادیه اروپا برای کنترل هوش مصنوعی
هوش مصنوعی در اروپا
هوش مصنوعی

آغاز اجرای قانون جدید اتحادیه اروپا برای کنترل هوش مصنوعی

بهمن 14, 1403 0۰1

به گزارش اپ خونه، به زودی، اتحادیه اروپا می‌تواند استفاده از سیستم‌های هوش مصنوعی که خطر “غیرقابل قبول” یا آسیب‌رسان تلقی شوند را ممنوع کند.

۲ فوریه اولین مهلت رعایت قانون هوش مصنوعی اتحادیه اروپا است. این قانون، که پارلمان اروپا پس از سال‌ها توسعه در مارس گذشته تصویب کرد، یک چارچوب جامع برای تنظیم مقررات هوش مصنوعی به شمار می‌رود. این قانون در اول اوت به‌طور رسمی لازم‌الاجرا شد و اکنون اولین مهلت‌های رعایت آن آغاز شده است.

جزئیات این قانون در ماده ۵ آن مشخص شده است، اما به‌طور کلی، این قانون طیف گسترده‌ای از موارد استفاده را شامل می‌شود که در آن‌ها هوش مصنوعی می‌تواند با افراد تعامل داشته باشد، از اپلیکیشن‌های مصرف‌کننده گرفته تا محیط‌های فیزیکی.

طبق این قانون، چهار سطح ریسک کلی برای سیستم‌های هوش مصنوعی تعریف شده است:

  1. ریسک حداقل (مانند فیلترهای هرزنامه ایمیل)، که هیچ نظارتی روی آن اعمال نخواهد شد.
  2. ریسک محدود (مانند چت‌بات‌های خدمات مشتری)، که تحت نظارت حداقلی خواهد بود.
  3. ریسک بالا (مانند هوش مصنوعی برای توصیه‌های پزشکی)، که تحت نظارت سنگین قرار می‌گیرد.
  4. ریسک غیرقابل قبول (تمرکز مهلت رعایت این ماه)، که به‌طور کامل ممنوع خواهد شد. در این مرحله از اجرای قانون (یعنی تا ۲ فوریه)، تمرکز اصلی بر روی ممنوعیت سیستم‌های هوش مصنوعی با ریسک غیرقابل قبول است و شرکت‌ها باید اطمینان حاصل کنند که از این نوع سیستم‌ها استفاده نمی‌کنند.

فعالیت‌های غیرقابل قبول شامل موارد زیر هستند:

  • هوش مصنوعی برای امتیازدهی اجتماعی (مثلاً ایجاد پروفایل‌های ریسک بر اساس رفتار افراد).
  • هوش مصنوعی که به‌صورت زیرآستانه‌ای یا فریبکارانه تصمیمات افراد را دستکاری می‌کند.
  • هوش مصنوعی که از آسیب‌پذیری‌هایی مانند سن، ناتوانی یا وضعیت اقتصادی-اجتماعی سوءاستفاده می‌کند.
  • هوش مصنوعی که بر اساس ظاهر افراد، احتمال ارتکاب جرم را پیش‌بینی می‌کند.
  • هوش مصنوعی که از داده‌های بیومتریک برای استنباط ویژگی‌هایی مانند گرایش جنسی استفاده می‌کند.
  • هوش مصنوعی که داده‌های بیومتریک را در مکان‌های عمومی برای اجرای قانون به‌صورت “زنده” جمع‌آوری می‌کند.
  • هوش مصنوعی که احساسات افراد را در محیط کار یا مدرسه استنباط می‌کند.
  • هوش مصنوعی که با جمع‌آوری تصاویر از اینترنت یا دوربین‌های امنیتی، پایگاه‌های داده تشخیص چهره ایجاد یا گسترش می‌دهد.

شرکت‌هایی که در اتحادیه اروپا از این نوع سیستم‌های هوش مصنوعی استفاده کنند، صرف‌نظر از محل استقرارشان، با جریمه مواجه خواهند شد. این جریمه‌ها ممکن است تا ۳۵ میلیون یورو (~۳۶ میلیون دلار) یا ۷٪ از درآمد سالانه شرکت در سال مالی گذشته (هرکدام که بیشتر باشد) برسد.

با این حال، اجرای جریمه‌ها مدتی طول خواهد کشید. “راب سامروی”، رئیس بخش فناوری در شرکت حقوقی “Slaughter and May” بریتانیا، در مصاحبه‌ای گفت که سازمان‌ها باید تا ۲ فوریه به‌طور کامل مطابق با قانون باشند، اما مهلت مهم بعدی در ماه اوت خواهد بود. وی افزود:

“تا آن زمان، مشخص خواهد شد که چه نهادهایی مسئول نظارت بر اجرای قانون هستند و اعمال جریمه‌ها و سایر مقررات اجرایی آغاز می‌شود.”

ضرب‌الاجل ۲ فوریه بیشتر جنبه رسمی دارد.

در سپتامبر گذشته، بیش از ۱۰۰ شرکت “پیمان هوش مصنوعی اتحادیه اروپا” را امضا کردند، که یک تعهد داوطلبانه برای اجرای اصول قانون هوش مصنوعی قبل از اعمال رسمی آن است. از جمله امضاکنندگان این پیمان می‌توان به آمازون، گوگل و OpenAI اشاره کرد که متعهد شدند سیستم‌های هوش مصنوعی که احتمال دارد به‌عنوان “ریسک بالا” طبقه‌بندی شوند را شناسایی کنند.

برخی از غول‌های فناوری، مانند Meta و Apple، از امضای این پیمان خودداری کردند. استارتاپ فرانسوی Mistral، که یکی از بزرگ‌ترین منتقدان این قانون است، نیز این پیمان را امضا نکرد.

البته این بدان معنا نیست که شرکت‌هایی مانند Apple، Meta یا Mistral الزامات این قانون را نادیده خواهند گرفت. سامروی اشاره کرد که بسیاری از موارد ممنوعه در این قانون، در حال حاضر توسط اکثر شرکت‌ها مورد استفاده قرار نمی‌گیرند.

“چالش اصلی سازمان‌ها این است که آیا دستورالعمل‌ها، استانداردها و کدهای رفتاری مشخص، به‌موقع ارائه خواهند شد یا خیر، و مهم‌تر از آن، آیا این قوانین شفافیت لازم را برای رعایت مقررات فراهم خواهند کرد؟”

برخی از ممنوعیت‌های قانون هوش مصنوعی دارای استثنائاتی هستند.

به عنوان مثال، این قانون به نیروهای اجرای قانون اجازه می‌دهد تا در شرایط خاص، سیستم‌های جمع‌آوری داده‌های بیومتریک در مکان‌های عمومی را برای جستجوی هدفمند (مانند یافتن یک فرد ربوده‌شده) یا برای جلوگیری از یک تهدید قریب‌الوقوع و قابل‌توجه برای جان انسان‌ها استفاده کنند.

این مورد نیازمند مجوز از نهادهای نظارتی مربوطه است و قانون تأکید می‌کند که تصمیمات نهایی نباید صرفاً بر اساس خروجی این سیستم‌ها اتخاذ شود.

همچنین، برخی از موارد استفاده از هوش مصنوعی برای استنباط احساسات در محیط‌های کاری و مدارس مجاز است، مشروط بر اینکه دلایل پزشکی یا ایمنی داشته باشد (مانند سیستم‌های درمانی).

کمیسیون اروپا اعلام کرده که اوایل ۲۰۲۵ دستورالعمل‌های اضافی را منتشر خواهد کرد، اما هنوز این راهنماها در دسترس نیستند.

سامروی همچنین اشاره کرد که چگونگی تعامل این قانون با سایر مقررات موجود، مانند GDPR، NIS2 و DORA، همچنان نامشخص است. به گفته وی:

“قوانین مربوط به هوش مصنوعی به‌صورت مستقل عمل نمی‌کنند. بلکه در تعامل با سایر مقررات مانند GDPR (قوانین حفظ حریم خصوصی)، NIS2 (امنیت سایبری) و DORA (مقررات تاب‌آوری عملیاتی دیجیتال) خواهند بود. درک این تعاملات به‌اندازه شناخت خود قانون هوش مصنوعی اهمیت دارد.”

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×