» اخبار اینترنت » اخلاق مداران به نامه “توقف هوش مصنوعی” که می گویند مضرات واقعی را نادیده می گیرد پاسخ دادند
پاسخ به توقف هوش مصنوعی
اخبار اینترنت

اخلاق مداران به نامه “توقف هوش مصنوعی” که می گویند مضرات واقعی را نادیده می گیرد پاسخ دادند

فروردین 12, 1402 1۰13

به گزارش اپ خونه، گروهی از اخلاق‌دانان مشهور هوش مصنوعی در نقطه مقابل نامه بحث‌برانگیز این هفته درخواست کرده‌اند که توسعه هوش مصنوعی را به مدت شش ماه متوقف کند و از آن به دلیل تمرکز بر تهدیدات فرضی آینده انتقاد کرده‌اند، زمانی که آسیب‌های واقعی ناشی از سوء استفاده از فناوری امروز است.

هزاران نفر از جمله نام‌های آشنا مانند استیو وزنیاک و ایلان ماسک، نامه سرگشاده موسسه آینده زندگی را در اوایل این هفته امضا کردند که در آن پیشنهاد می‌شد توسعه مدل‌های هوش مصنوعی مانند GPT-4 به تعویق بیفتد تا از ضرر جلوگیری شود.

تیمنیت گبرو، امیلی ام. بندر، آنجلینا مک میلان میجر و مارگارت میچل همگی از چهره‌های اصلی در حوزه هوش مصنوعی و اخلاق هستند که (علاوه بر کارشان) به دلیل بیرون راندن از گوگل به دلیل مقاله‌ای که قابلیت‌های هوش مصنوعی را مورد انتقاد قرار می‌دهد، شناخته می‌شوند .

آنها در حال حاضر با هم در مؤسسه DAIR یک مجموعه تحقیقاتی جدید با هدف مطالعه، افشای و پیشگیری از آسیب های مرتبط با هوش مصنوعی کار می کنند.

اما آنها در لیست امضاکنندگان یافت نشدند، و اکنون با انتشار یک توبیخ از شکست نامه در برخورد با مشکلات موجود ناشی از فناوری انتقاد کرده اند.

آنها با اشاره به استثمار کارگران، سرقت داده ها، رسانه های مصنوعی که ساختارهای قدرت موجود را تقویت می کنند و تمرکز بیشتر نوشتند:

«این خطرات فرضی کانون ایدئولوژی خطرناکی به نام بلندمدت گرایی هستند که آسیب های واقعی ناشی از استقرار سیستم های هوش مصنوعی امروزی را نادیده می گیرد. از آن ساختارهای قدرت در دستان کمتری است.»

انتخاب نگرانی در مورد آخرالزمان ربات شبیه ترمیناتور یا ماتریکس یک شاه ماهی قرمز است وقتی که در همان لحظه گزارش هایی از شرکت هایی مانند Clearview AI توسط پلیس برای استفاده از یک مرد بی گناه در اصل داریم .

در حالی که خدمه DAIR با برخی از اهداف نامه، مانند شناسایی رسانه های مصنوعی موافق هستند، آنها تأکید می کنند که باید اکنون، در مورد مشکلات امروز، با راه حل هایی که در دسترس داریم، اقدام شود:

آنچه ما نیاز داریم مقرراتی است که شفافیت را اعمال کند. نه تنها زمانی که با رسانه های مصنوعی مواجه می شویم باید همیشه واضح باشد، بلکه سازمان هایی که این سیستم ها را می سازند نیز باید ملزم به مستندسازی و افشای داده های آموزشی و معماری مدل باشند.

مسئولیت ایجاد ابزارهای ایمن برای استفاده باید بر عهده شرکت هایی باشد که سیستم های مولد را می سازند و به کار می برند، به این معنی که سازندگان این سیستم ها باید در قبال خروجی های تولید شده توسط محصولات خود پاسخگو باشند.

مسابقه فعلی به سمت «آزمایش‌های هوش مصنوعی» بزرگ‌تر، مسیری از پیش تعیین‌شده نیست که در آن تنها انتخاب ما سرعت دویدن است، بلکه مجموعه‌ای از تصمیمات است که با انگیزه سود انجام می‌شود.

اقدامات و انتخاب های شرکت ها باید با مقرراتی شکل بگیرد که از حقوق و منافع مردم محافظت می کند.

در واقع زمان اقدام فرا رسیده است اما کانون نگرانی ما نباید “ذهن دیجیتال قدرتمند” خیالی باشد.

در عوض، ما باید روی شیوه‌های استثماری بسیار واقعی و فعلی شرکت‌هایی که مدعی ساختن آن‌ها هستند، تمرکز کنیم، که به سرعت در حال تمرکز قدرت و افزایش نابرابری‌های اجتماعی هستند.

اتفاقاً، این نامه بازتاب احساسی است که جسیکا متیوز، بنیانگذار Uncharted Power در رویداد AfroTech در سیاتل اشاره کرد : «شما نباید از هوش مصنوعی بترسید. باید از ساختن مردم بترسید.» (راه حل او: تبدیل به افرادی شوید که آن را می سازند.)

در حالی که بعید به نظر می رسد که هیچ شرکت بزرگی موافقت کند که تلاش های تحقیقاتی خود را مطابق با نامه سرگشاده متوقف کند، اما با قضاوت از تعاملی که دریافت کرده است، واضح است که خطرات – واقعی و فرضی – هوش مصنوعی در بسیاری از بخش های صنعت نگران کننده است.

 اما اگر آنها این کار را انجام ندهند، شاید کسی مجبور شود این کار را برای آنها انجام دهد.

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×