احراز هویت سازمانی؛ شرط جدید OpenAI برای دسترسی به مدلهای پیشرفته هوش مصنوعی
به گزارش اپ خونه، شرکت OpenAI بهتازگی در صفحه پشتیبانی وبسایت خود اعلام کرده است که بهزودی ممکن است دسترسی به برخی مدلهای پیشرفته آیندهی هوش مصنوعی را منوط به انجام فرآیند «احراز هویت سازمانی» کند.
این اقدام با هدف افزایش امنیت و استفاده ایمن از فناوریهای پیشرفته OpenAI در دستور کار قرار گرفته است.
فرآیند یادشده با عنوان Verified Organization یا «سازمان تأییدشده» معرفی شده و به گفته OpenAI، روشی جدید برای توسعهدهندگان است تا بتوانند به پیشرفتهترین مدلها و قابلیتهای پلتفرم دسترسی پیدا کنند.
در این فرآیند، ارائه یک مدرک شناسایی رسمی صادرشده از سوی دولتهای کشورهای پشتیبانیشده توسط API شرکت، الزامی خواهد بود. همچنین، هر مدرک هویتی تنها میتواند یک سازمان را در هر ۹۰ روز تأیید کند و ممکن است همه سازمانها واجد شرایط احراز هویت نباشند.
در این بیانیه آمده است:
«در OpenAI، ما مسئولیت خود را برای اطمینان از دسترسی گسترده و استفاده ایمن از هوش مصنوعی بسیار جدی میگیریم. متأسفانه، اقلیتی از توسعهدهندگان عمداً از APIهای ما برخلاف سیاستهای استفاده تعیینشده استفاده میکنند. ما با افزودن فرآیند احراز هویت، در تلاش هستیم تا از کاربردهای ناایمن هوش مصنوعی جلوگیری کنیم و در عین حال امکان دسترسی به مدلهای پیشرفته را برای جامعه گستردهتری از توسعهدهندگان حفظ کنیم.»
OpenAI در راستای این اقدام، وضعیت جدیدی تحت عنوان سازمان تأییدشده معرفی کرده که به گفته شرکت، ابزاری برای آمادهسازی توسعهدهندگان برای دسترسی سریع و مطمئن به نسخههای هیجانانگیز آیندهی مدلهای هوش مصنوعی خواهد بود. فرآیند تأیید، تنها چند دقیقه زمان میبرد و نیازمند ارائه یک شناسه معتبر دولتی است.
به نظر میرسد این اقدام OpenAI برای تقویت امنیت محصولات هوش مصنوعی آن صورت میگیرد؛ بهویژه در شرایطی که این مدلها روزبهروز قدرتمندتر و پیچیدهتر میشوند.
OpenAI در ماههای گذشته چندین گزارش درباره تلاشهایش برای شناسایی و کاهش سوءاستفادههای مخرب از مدلهای هوش مصنوعی منتشر کرده است؛ از جمله استفادههای مشکوکی که به گروههایی در کره شمالی نسبت داده شده است.
یکی دیگر از اهداف احتمالی این طرح، جلوگیری از سرقت مالکیت فکری (IP) است. طبق گزارشی که اوایل سال جاری توسط بلومبرگ منتشر شد، OpenAI در حال بررسی احتمال سرقت گسترده دادهها از طریق API توسط گروهی وابسته به آزمایشگاه چینی DeepSeek در اواخر سال ۲۰۲۴ بوده است.
این دادهها ممکن است برای آموزش مدلهای مشابه مورد استفاده قرار گرفته باشند که نقض آشکار شرایط استفاده از خدمات OpenAI محسوب میشود.
شایان ذکر است که OpenAI تابستان گذشته دسترسی به خدمات خود را در کشور چین مسدود کرده بود.
با توجه به افزایش پیچیدگی و قدرت مدلهای هوش مصنوعی، بهنظر میرسد OpenAI در مسیر جدیدی برای مدیریت بهتر، ایمنتر و مسئولانهتر این فناوریها قدم گذاشته است.
احراز هویت سازمانی میتواند گامی مؤثر در راستای جلوگیری از سوءاستفاده، حفاظت از اطلاعات و فراهمسازی زمینهای مطمئن برای توسعهدهندگان واقعی و حرفهای باشد.
این اقدام نهتنها بر آینده استفاده از APIهای OpenAI تأثیرگذار خواهد بود، بلکه میتواند الگویی برای سایر شرکتهای فعال در حوزه هوش مصنوعی نیز تلقی شود.