شرکتهای برتر هوش مصنوعی برای انجام تعهدات ایمنی داوطلبانه از کاخ سفید بازدید میکنند
به گزارش اپ خونه، در حالی که ممکن است سالها تا قانون اساسی هوش مصنوعی باقی بماند، این صنعت با سرعت کم در حال حرکت است و بسیاری – از جمله کاخ سفید – نگران هستند که ممکن است از بین برود.
بنابراین دولت بایدن تعهدات داوطلبانه را از ۷ نفر از بزرگترین توسعه دهندگان هوش مصنوعی برای پیگیری اهداف مشترک ایمنی و شفافیت قبل از دستور اجرایی برنامه ریزی شده جمع آوری کرده است.
OpenAI، Anthropic، Google، Inflection، Microsoft، Meta و Amazon شرکت هایی هستند که در این توافق نامه غیر الزام آور شرکت می کنند و نمایندگانی را برای دیدار با رئیس جمهور بایدن به کاخ سفید می فرستند.
برای روشن بودن، هیچ قاعده یا اجرایی در اینجا پیشنهاد نشده است – اقدامات مورد توافق کاملاً داوطلبانه است.
اما اگر هرسازمان دولتی از چند شرکت طفره رود، هیچ یک از سازمانهای دولتی مسئول نخواهد بود، اما احتمالاً موضوعی برای ثبت عمومی خواهد بود.
در اینجا لیستی از شرکت کنندگان در کنسرت کاخ سفید آمده است:
برد اسمیت، رئیس مایکروسافت
کنت واکر، رئیس، گوگل
داریو آمودی، مدیرعامل آنتروپیک
مصطفی سلیمان، مدیر عامل، هوش مصنوعی Inflection
نیک کلگ، رئیس، متا
گرگ براکمن، رئیس، OpenAI
آدام سلیپسکی، مدیر عامل، خدمات وب آمازون
هفت شرکت و احتمالاً سایرین که فرش قرمز را دریافت نکردند اما میخواهند سوار شوند به موارد زیر متعهد شدهاند:
تستهای امنیتی داخلی و خارجی سیستمهای هوش مصنوعی قبل از انتشار، از جمله “تیم قرمز” متخاصم توسط کارشناسان خارج از شرکت.
اطلاعات را در سراسر دولت، دانشگاه و «جامعه مدنی» در مورد خطرات هوش مصنوعی و تکنیک های کاهش (مانند جلوگیری از «جیل بریک») به اشتراک بگذارید.
برای محافظت از دادههای مدل خصوصی مانند وزنها، روی امنیت سایبری و «ضمانتهای حفاظت از تهدیدات داخلی» سرمایهگذاری کنید. این نه تنها برای محافظت از IP مهم است، بلکه به این دلیل که انتشار گسترده زودهنگام می تواند فرصتی برای عوامل مخرب باشد.
تسهیل کشف و گزارش شخص ثالث از آسیبپذیریها، بهعنوان مثال، برنامه پاداش باگ یا تجزیه و تحلیل متخصص دامنه.
ایجاد واترمارک قوی یا روش دیگری برای علامت گذاری محتوای تولید شده توسط هوش مصنوعی.
«قابلیتها، محدودیتها و زمینههای استفاده مناسب و نامناسب» سیستمهای هوش مصنوعی را گزارش کنید. موفق باشید در این مورد یک پاسخ مستقیم دریافت کنید.
تحقیقات در مورد خطرات اجتماعی مانند سوگیری سیستماتیک یا مسائل مربوط به حریم خصوصی را در اولویت قرار دهید.
توسعه و استقرار هوش مصنوعی “برای کمک به مقابله با بزرگترین چالش های جامعه” مانند پیشگیری از سرطان و تغییرات آب و هوایی.
اگرچه موارد فوق داوطلبانه هستند، اما می توان به راحتی تصور کرد که تهدید یک فرمان اجرایی – که در حال حاضر در حال توسعه هستند – برای تشویق به انطباق وجود دارد.
برای مثال، اگر برخی از شرکتها نتوانند آزمایشهای امنیتی خارجی مدلهای خود را قبل از عرضه اجازه دهند، EO ممکن است پاراگرافای ایجاد کند که FTC را هدایت کند تا محصولات هوش مصنوعی را که ادعای امنیت قوی دارند، از نزدیک ببیند.
(یک EO در حال حاضر فعال است و از آژانس ها می خواهد که مراقب تعصب در توسعه و استفاده از هوش مصنوعی باشند.)
کاخ سفید آشکارا مشتاق است تا از این موج بزرگ فناوری بعدی بیرون بیاید، زیرا با قابلیت های مخرب رسانه های اجتماعی گرفتار شده است.
رئیسجمهور و معاون رئیسجمهور هر دو با رهبران صنعت ملاقات کردهاند و در مورد استراتژی ملی هوش مصنوعی درخواست مشاوره کردهاند، همچنین مقدار زیادی بودجه را به مراکز و برنامههای تحقیقاتی جدید هوش مصنوعی اختصاص دادهاند.
البته دستگاه علمی و تحقیقاتی ملی بسیار جلوتر از آنها است، همانطور که این گزارش چالشها و فرصتهای تحقیقاتی بسیار جامع (هر چند لزوماً کمی قدیمی) از DOE و آزمایشگاههای ملی نشان میدهد .