» تکنولوژی » آیا ما مردم می‌توانیم هوش مصنوعی را کنترل کنیم؟
کنترل هوش مصنوعی
تکنولوژی

آیا ما مردم می‌توانیم هوش مصنوعی را کنترل کنیم؟

بهمن 28, 1401 0۰12

به گزارش اپ خونه، فن‌آور و محقق آویو اوادیا مطمئن نیست که می‌توان هوش مصنوعی مولد را کنترل کرد، اما او فکر می‌کند که معقول‌ترین ابزار برای کنترل آن این است که افرادی که تحت تاثیر هوش مصنوعی قرار می گیرند برای مهار آن به طور جمعی تصمیم گیری کنند.

یعنی قدرت شما و من نوعی ،شبکه ای بزرگ متشکل از افراد،مشکلات را سریع تر و عادلانه تر حل میکند تا این که یک گروه کوچک باشد مانند گروهی از افراد که در واشنگتن هستند.

این اساساً بر خرد جمعیت تکیه دارد و در بسیاری از زمینه ها از جمله تحقیقات علمی، تجارت، سیاست و جنبش های اجتماعی در حال وقوع است.

به عنوان مثال، در تایوان، هکرهای متفکر مدنی در سال ۲۰۱۵ یک پلت فرم – “تایوان مجازی” – تشکیل دادند که نمایندگان بخش های عمومی، خصوصی و اجتماعی را گرد هم می آورد تا راه حل های سیاستی برای مشکلات عمدتاً مرتبط با اقتصاد دیجیتال را به بحث بگذارند.

این مطلب در سال ۲۰۱۹ توسط وزیر دیجیتال تایوان، آدری تانگ در نیویورک تایمز آورده شد. از آن زمان، vTaiwan، همانطور که شناخته شده است، با تکیه بر ترکیبی از بحث آنلاین و گفتگوهای رو در رو با سهامداران ده ها موضوع را حل کرده است.

یک ابتکار مشابه، بررسی ابتکار شهروندان اورگان است است که در سال ۲۰۱۱ به تصویب قانون رسید و از طریق یک «فرایند مشورتی» مبتنی بر شهروندان، مردم رای‌دهنده ایالت را در مورد اقدامات رأی‌دهی آگاه می‌کند.

تقریباً ۲۰ تا ۲۵ شهروند که نماینده کل رای دهندگان اورگان هستند گرد هم آمده اند تا در مورد شایستگی یک ابتکار بحث کنند. سپس به طور جمعی بیانیه ای در مورد آن ابتکار می نویسند که برای رای دهندگان دیگر ایالت ارسال می شود تا بتوانند تصمیمات آگاهانه تری در روزهای انتخابات بگیرند.

فرآیندهای به اصطلاح مشورتی همچنین با موفقیت به حل مسائل در استرالیا (سیاست آب)، کانادا (اصلاحات انتخاباتی)، شیلی (مستمری بازنشستگی و مراقبت های بهداشتی) و آرژانتین (مسکن، مالکیت زمین) در میان جاهای دیگر کمک کرده است.

اوادیا که وابسته به مرکز برکمن کلاین هاروارد است و کارش به طور فزاینده‌ای بر تأثیرات هوش مصنوعی بر جامعه و دموکراسی متمرکز است، اذعان می‌کند:

«موانعی برای کار کردن این کار وجود دارد، زیرا مربوط به هوش مصنوعی است. اما از نظر تجربی، این کار در هر قاره در سراسر جهان، در هر مقیاسی انجام شده است و هرچه سریعتر بتوانیم برخی از این موارد را در جای خود قرار دهیم، بهتر است».

اجازه دادن به بخش های بزرگی از مردم برای تصمیم گیری در مورد دستورالعمل های قابل قبول برای هوش مصنوعی ممکن است برای برخی عجیب و شاید غیرممکن به نظر برسد.

با این حال اوادیا تنها نیست که فکر می کند راه حل تا حد زیادی ریشه در جامعه دارد. میرا موراتی، مدیر ارشد فناوری استارت‌آپ برجسته هوش مصنوعی OpenAI، در مصاحبه‌ای اخیر با مجله تایم گفت :

«ما گروه کوچکی از مردم هستیم و به تعداد زیادی ورودی بیشتر در این سیستم و ورودی‌های بسیار بیشتری نیاز داریم. قطعاً قانون‌گذاران، دولت‌ها و همه افراد دیگر فراتر از فناوری‌ها است .»

موراتی وقتی در مورد این موارد از او پرسیده شد، به این رسانه گفت که موراتی نگران این نیست که دخالت دولت باعث کندی نوآوری شود یا اینکه هنوز برای سیاستگذاران و تنظیم‌کننده‌ها خیلی زود است که درگیر شوند.

برعکس، همانطور که OpenAI برای سال ها گفته است ، زمان عمل امروز است، نه فردا. او گفت: «بسیار مهم است که همه با توجه به تأثیری که این فناوری‌ها خواهند داشت، درگیر شوند.»

در حال حاضر، OpenAI در حال اتخاذ یک رویکرد خودگردان است، دستورالعمل‌هایی را برای استفاده ایمن از فناوری خود ایجاد و بازبینی می‌کند و تکرارهای جدید را به صورت dribs و drabs ارائه می‌کند.

در همین حال، اتحادیه اروپا در حال تدوین یک چارچوب نظارتی – قانون هوش مصنوعی – است که راه خود را در پارلمان اروپا باز کرده و هدف آن تبدیل شدن به یک استاندارد جهانی است.

این قانون کاربردهای هوش مصنوعی را به سه دسته خطر اختصاص می‌دهد: برنامه‌ها و سیستم‌هایی که «ریسک غیرقابل قبول» ایجاد می‌کنند. “برنامه های پرخطر” که مشمول الزامات قانونی خاص هستند و برنامه‌هایی که صراحتاً ممنوع یا فهرست‌بندی نشده‌اند و به‌عنوان پرخطر فهرست نشده‌اند و تا حد زیادی بدون نظارت رها می‌شوند.

وزارت بازرگانی ایالات متحده همچنین چارچوبی داوطلبانه را به‌عنوان راهنمایی برای شرکت‌ها تهیه کرده است، اما به‌طور شگفت‌انگیزی، هیچ مقرراتی وجود ندارد علی‌رغم اینکه به شدت مورد نیاز است.

علاوه بر OpenAI، غول‌های فناوری مانند مایکروسافت و گوگل – که توسط نسخه‌های قبلی هوش مصنوعی خود سوخته بودند که نتیجه معکوس داشت – دوباره به صورت عمومی برای عرضه محصولات و برنامه‌های مبتنی بر هوش مصنوعی رقابت می‌کنند.

یک نوع کنسرسیوم وب جهانی، یک سازمان بین المللی که در سال ۱۹۹۴ برای تعیین استانداردهایی برای شبکه جهانی وب ایجاد شد، ظاهرا منطقی است.

در واقع، موراتی به تایم گفت که « صداهای مختلف، مانند فیلسوفان، دانشمندان علوم اجتماعی، هنرمندان، و افرادی از علوم انسانی» باید گرد هم آیند تا به بسیاری از «سوالات اخلاقی و فلسفی که باید در نظر بگیریم» پاسخ دهند.

ابزارهای جدیدتری که به مردم کمک می‌کنند در مورد مسائل رأی دهند نیز می‌توانند به طور بالقوه کمک کنند.

سام آلتمن، مدیر عامل هوش مصنوعی Open، همچنین یکی از بنیانگذاران یک شرکت اسکن شبکیه چشم در برلین به نام WorldCoin است که می‌خواهد احراز هویت افراد را آسان کند.

سوالاتی در مورد پیامدهای حریم خصوصی و امنیتی رویکرد بیومتریک WorldCoin مطرح شده است، اما کاربردهای بالقوه آن شامل توزیع درآمد پایه جهانی جهانی و همچنین توانمندسازی اشکال جدید دموکراسی دیجیتال است.

در هر صورت، Ovadya سخت در تلاش است تا همه بازیگران اصلی هوش مصنوعی را متقاعد کند که هوش جمعی راهی برای ایجاد سریع مرزها در اطراف هوش مصنوعی است و در عین حال به آنها اعتبار لازم را می دهد.

اوادیا می گوید OpenAI را انتخاب کنید. “در حال حاضر از طرف همه، از جمله در مورد تعصب لیبرال درک شده، این موضوع مورد انتقاد قرار گرفته است .”

«این [برای شرکت] مفید خواهد بود که یک پاسخ واقعاً مشخص در مورد اینکه چگونه سیاست‌های آتی خود را تعیین می‌کند.»

Ovadya به طور مشابه به Stability.AI، شرکت منبع باز هوش مصنوعی اشاره می کند که مدیر عامل آن، عماد مستقی، بارها پیشنهاد کرده است که Stability دموکراتیک تر از OpenAI است، زیرا در همه جا در دسترس است، در حالی که OpenAI فقط در کشورهایی در حال حاضر در دسترس است که می تواند ارائه دهد .

اوادیا می‌گوید: «عماد در استیبلی می‌گوید که هوش مصنوعی را دموکراتیک می‌کند. خوب، آیا واقعاً خوب نیست که از فرآیندهای دموکراتیک برای فهمیدن اینکه مردم واقعاً چه می خواهند استفاده کنیم؟».

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×