اخبار اینترنت

شرکت‌های برتر هوش مصنوعی برای انجام تعهدات ایمنی داوطلبانه از کاخ سفید بازدید می‌کنند

به گزارش اپ خونه، در حالی که ممکن است سال‌ها تا قانون اساسی هوش مصنوعی باقی بماند، این صنعت با سرعت کم در حال حرکت است و بسیاری – از جمله کاخ سفید – نگران هستند که ممکن است از بین برود.

بنابراین دولت بایدن تعهدات داوطلبانه را از ۷ نفر از بزرگترین توسعه دهندگان هوش مصنوعی برای پیگیری اهداف مشترک ایمنی و شفافیت قبل از دستور اجرایی برنامه ریزی شده جمع آوری کرده است.

OpenAI، Anthropic، Google، Inflection، Microsoft، Meta و Amazon شرکت هایی هستند که در این توافق نامه غیر الزام آور شرکت می کنند و نمایندگانی را برای دیدار با رئیس جمهور بایدن به کاخ سفید می فرستند.

برای روشن بودن، هیچ قاعده یا اجرایی در اینجا پیشنهاد نشده است – اقدامات مورد توافق کاملاً داوطلبانه است.

اما اگر هرسازمان دولتی از چند شرکت طفره رود، هیچ یک از سازمان‌های دولتی مسئول نخواهد بود، اما احتمالاً موضوعی برای ثبت عمومی خواهد بود.

در اینجا لیستی از شرکت کنندگان در کنسرت کاخ سفید آمده است:

برد اسمیت، رئیس مایکروسافت
کنت واکر، رئیس، گوگل
داریو آمودی، مدیرعامل آنتروپیک
مصطفی سلیمان، مدیر عامل، هوش مصنوعی Inflection
نیک کلگ، رئیس، متا
گرگ براکمن، رئیس، OpenAI
آدام سلیپسکی، مدیر عامل، خدمات وب آمازون

هفت شرکت و احتمالاً سایرین که فرش قرمز را دریافت نکردند اما می‌خواهند سوار شوند به موارد زیر متعهد شده‌اند:

تست‌های امنیتی داخلی و خارجی سیستم‌های هوش مصنوعی قبل از انتشار، از جمله “تیم قرمز” متخاصم توسط کارشناسان خارج از شرکت.

اطلاعات را در سراسر دولت، دانشگاه و «جامعه مدنی» در مورد خطرات هوش مصنوعی و تکنیک های کاهش (مانند جلوگیری از «جیل بریک») به اشتراک بگذارید.

برای محافظت از داده‌های مدل خصوصی مانند وزن‌ها، روی امنیت سایبری و «ضمانت‌های حفاظت از تهدیدات داخلی» سرمایه‌گذاری کنید. این نه تنها برای محافظت از IP مهم است، بلکه به این دلیل که انتشار گسترده زودهنگام می تواند فرصتی برای عوامل مخرب باشد.

تسهیل کشف و گزارش شخص ثالث از آسیب‌پذیری‌ها، به‌عنوان مثال، برنامه پاداش باگ یا تجزیه و تحلیل متخصص دامنه.

ایجاد واترمارک قوی یا روش دیگری برای علامت گذاری محتوای تولید شده توسط هوش مصنوعی.

«قابلیت‌ها، محدودیت‌ها و زمینه‌های استفاده مناسب و نامناسب» سیستم‌های هوش مصنوعی را گزارش کنید. موفق باشید در این مورد یک پاسخ مستقیم دریافت کنید.

تحقیقات در مورد خطرات اجتماعی مانند سوگیری سیستماتیک یا مسائل مربوط به حریم خصوصی را در اولویت قرار دهید.

توسعه و استقرار هوش مصنوعی “برای کمک به مقابله با بزرگترین چالش های جامعه” مانند پیشگیری از سرطان و تغییرات آب و هوایی.

اگرچه موارد فوق داوطلبانه هستند، اما می توان به راحتی تصور کرد که تهدید یک فرمان اجرایی – که در حال حاضر در حال توسعه هستند – برای تشویق به انطباق وجود دارد.

برای مثال، اگر برخی از شرکت‌ها نتوانند آزمایش‌های امنیتی خارجی مدل‌های خود را قبل از عرضه اجازه دهند، EO ممکن است پاراگراف‌ای ایجاد کند که FTC را هدایت کند تا محصولات هوش مصنوعی را که ادعای امنیت قوی دارند، از نزدیک ببیند.

(یک EO در حال حاضر فعال است و از آژانس ها می خواهد که مراقب تعصب در توسعه و استفاده از هوش مصنوعی باشند.)

کاخ سفید آشکارا مشتاق است تا از این موج بزرگ فناوری بعدی بیرون بیاید، زیرا با قابلیت های مخرب رسانه های اجتماعی گرفتار شده است.

رئیس‌جمهور و معاون رئیس‌جمهور هر دو با رهبران صنعت ملاقات کرده‌اند و در مورد استراتژی ملی هوش مصنوعی درخواست مشاوره کرده‌اند، همچنین مقدار زیادی بودجه را به مراکز و برنامه‌های تحقیقاتی جدید هوش مصنوعی اختصاص داده‌اند.

البته دستگاه علمی و تحقیقاتی ملی بسیار جلوتر از آنها است، همانطور که این گزارش چالش‌ها و فرصت‌های تحقیقاتی بسیار جامع (هر چند لزوماً کمی قدیمی) از DOE و آزمایشگاه‌های ملی نشان می‌دهد .

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا