اخبار اینترنت

بیش از ۱۱۰۰ امضاکننده برجسته به تازگی نامه ای سرگشاده را امضا کردند که در آن از همه آزمایشگاه های هوش مصنوعی خواسته بودند که فوراً حداقل به مدت ۶ ماه توقف کنند

به گزارش اپ خونه، بیش از ۱۱۰۰ امضاکننده، از جمله ایلان ماسک، استیو وزنیاک و تریستان هریس از مرکز فناوری انسانی، نامه سرگشاده‌ای را امضا کرده‌اند که به‌صورت آنلاین منتشر شد و از همه آزمایشگاه‌های سیستم‌های هوش مصنوعی قوی‌تر از GPT-4 می‌خواهد فوراً حداقل به مدت ۶ ماه آموزش را متوقف کنند.

در این نامه آمده است:

سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقابت با انسان در وظایف عمومی هستند، و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات و نادرست کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجام‌دهنده را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟

آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.

این نامه استدلال می‌کند که «سطحی از برنامه‌ریزی و مدیریت» وجود دارد که رو نمی‌شود و در عوض، در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی بی‌نام در یک مسابقه خارج از کنترل برای توسعه و استقرار قفل شده‌اند.

ذهن‌های دیجیتالی قدرتمندتر که هیچ‌کس – حتی سازندگان آنها – نمی‌توانند آن‌ها را بفهمند، پیش‌بینی کنند یا به‌طور قابل اعتماد کنترل کنند.

امضاکنندگان نامه ، که برخی از آنها متخصصان هوش مصنوعی هستند، می‌گویند که مکثی که درخواست می‌کنند باید علنی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود.

در این نامه آمده است: اگر این مکث «نمی‌تواند به سرعت اجرا شود، دولت‌ها باید وارد عمل شوند و یک تعلیق وضع کنند».

مطمئناً نامه جالب است هم به دلیل افرادی که امضا کرده اند – که شامل برخی از مهندسان متا و گوگل، بنیانگذار و مدیر عامل شرکت Stability AI عماد مستقیه، و افرادی که در فناوری نیستند، از جمله یک برقکار و یک متخصص زیبایی جالب است.

برای مثال، هیچ کس از OpenAI، لباس پشت مدل زبان بزرگ GPT-4، این نامه را امضا نکرده است.

همچنین کسی از Anthropic که تیمش از OpenAI خارج شده است تا یک ربات چت هوش مصنوعی ایمن‌تر بسازد، هم این کار را نکرده است.

چهارشنبه، سام آلتمن، مدیر عامل OpenAI با WSJ صحبت کرد و گفت OpenAI آموزش GPT-5 را شروع نکرده است. آلتمن همچنین خاطرنشان کرد که این شرکت مدت‌هاست که اولویت را به ایمنی در توسعه داده است و بیش از شش ماه قبل از راه‌اندازی GPT-4 آزمایش‌های ایمنی را روی GPT-4 انجام داده است. او به ژورنال گفت: «به نوعی، این موعظه برای گروه کر است. فکر می‌کنم ما در طولانی‌ترین مدت در مورد این موضوعات با صدای بلند، با بیشترین شدت صحبت کرده‌ایم.»

در واقع، آلتمن در ژانویه با این ویرایشگر گفت‌وگو کرد ، جایی که او استدلال کرد که «شروع این [محصولات] اکنون [معنی دارد]، جایی که ریسک‌ها هنوز نسبتاً کم است، نه اینکه صرفاً آنچه را که کل صنعت در چند روز آینده خواهد داشت بیان کند. سال‌هایی که زمانی برای به‌روزرسانی جامعه وجود ندارد.»

آلتمن اخیراً با دانشمند کامپیوتر و پادکست محبوب لکس فریدمن به گفتگو نشست و در مورد رابطه خود با ماسک که یکی از بنیانگذاران OpenAI بود اما در سال ۲۰۱۸ از این سازمان کناره‌گیری کرد، به دلیل تضاد منافع صحبت کرد . (گزارش جدیدتر از رسانه Semafor می گوید که ماسک پس از اینکه پیشنهاد او برای اداره OpenAI توسط سایر بنیانگذاران آن، از جمله آلتمن، که در اوایل سال ۲۰۱۹ نقش مدیرعامل را بر عهده گرفت، رد شد، آنجا را ترک کرد.)

ماسک شاید کم‌تعجب‌ترین امضاکننده این نامه سرگشاده باشد، با توجه به اینکه او سال‌هاست در مورد ایمنی هوش مصنوعی صحبت می‌کند و اخیراً به طور خاص OpenAI را هدف قرار داده است و نشان می‌دهد که شرکت تماماً صحبت می‌کند و هیچ اقدامی نمی‌کند. فریدمن از آلتمن درباره توئیت‌های اخیر و معمول ماسک که سازمان را مورد انتقاد قرار می‌داد، پرسید . آلتمن گفت: «الون بدیهی است که در حال حاضر در توییتر در چند بردار مختلف به ما حمله می‌کند، و من همدلی می‌کنم، زیرا معتقدم که او – قابل درک است – واقعاً در مورد ایمنی AGI استرس دارد. مطمئنم انگیزه های دیگری نیز وجود دارد، اما این قطعا یکی از آنهاست.»

به گفته آلتمن، او برخی از رفتارهای ماسک را آزاردهنده می‌داند. من قطعاً با ایلان به عنوان قهرمان خودم بزرگ شدم. می‌دانی، علیرغم اینکه او در توییتر یا هر چیز دیگری بی‌تحرک است، خوشحالم که او در دنیا وجود دارد. اما ای کاش او بیشتر تلاش می‌کرد تا به کار سختی که ما انجام می‌دهیم برای درست کردن این چیزها نگاه کند.»

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا