» هوش مصنوعی » احراز هویت سازمانی؛ شرط جدید OpenAI برای دسترسی به مدل‌های پیشرفته هوش مصنوعی
اوپن ای ای
هوش مصنوعی

احراز هویت سازمانی؛ شرط جدید OpenAI برای دسترسی به مدل‌های پیشرفته هوش مصنوعی

فروردین 25, 1404 2۰5

به گزارش اپ خونه، شرکت OpenAI به‌تازگی در صفحه پشتیبانی وب‌سایت خود اعلام کرده است که به‌زودی ممکن است دسترسی به برخی مدل‌های پیشرفته آینده‌ی هوش مصنوعی را منوط به انجام فرآیند «احراز هویت سازمانی» کند.

این اقدام با هدف افزایش امنیت و استفاده ایمن از فناوری‌های پیشرفته OpenAI در دستور کار قرار گرفته است.

فرآیند یادشده با عنوان Verified Organization یا «سازمان تأییدشده» معرفی شده و به گفته OpenAI، روشی جدید برای توسعه‌دهندگان است تا بتوانند به پیشرفته‌ترین مدل‌ها و قابلیت‌های پلتفرم دسترسی پیدا کنند.

در این فرآیند، ارائه یک مدرک شناسایی رسمی صادرشده از سوی دولت‌های کشورهای پشتیبانی‌شده توسط API شرکت، الزامی خواهد بود. همچنین، هر مدرک هویتی تنها می‌تواند یک سازمان را در هر ۹۰ روز تأیید کند و ممکن است همه سازمان‌ها واجد شرایط احراز هویت نباشند.

در این بیانیه آمده است:

«در OpenAI، ما مسئولیت خود را برای اطمینان از دسترسی گسترده و استفاده ایمن از هوش مصنوعی بسیار جدی می‌گیریم. متأسفانه، اقلیتی از توسعه‌دهندگان عمداً از APIهای ما برخلاف سیاست‌های استفاده تعیین‌شده استفاده می‌کنند. ما با افزودن فرآیند احراز هویت، در تلاش هستیم تا از کاربردهای ناایمن هوش مصنوعی جلوگیری کنیم و در عین حال امکان دسترسی به مدل‌های پیشرفته را برای جامعه گسترده‌تری از توسعه‌دهندگان حفظ کنیم.»

OpenAI در راستای این اقدام، وضعیت جدیدی تحت عنوان سازمان تأییدشده معرفی کرده که به گفته شرکت، ابزاری برای آماده‌سازی توسعه‌دهندگان برای دسترسی سریع و مطمئن به نسخه‌های هیجان‌انگیز آینده‌ی مدل‌های هوش مصنوعی خواهد بود. فرآیند تأیید، تنها چند دقیقه زمان می‌برد و نیازمند ارائه یک شناسه معتبر دولتی است.

به نظر می‌رسد این اقدام OpenAI برای تقویت امنیت محصولات هوش مصنوعی آن صورت می‌گیرد؛ به‌ویژه در شرایطی که این مدل‌ها روزبه‌روز قدرتمندتر و پیچیده‌تر می‌شوند.

OpenAI در ماه‌های گذشته چندین گزارش درباره تلاش‌هایش برای شناسایی و کاهش سوء‌استفاده‌های مخرب از مدل‌های هوش مصنوعی منتشر کرده است؛ از جمله استفاده‌های مشکوکی که به گروه‌هایی در کره شمالی نسبت داده شده است.

یکی دیگر از اهداف احتمالی این طرح، جلوگیری از سرقت مالکیت فکری (IP) است. طبق گزارشی که اوایل سال جاری توسط بلومبرگ منتشر شد، OpenAI در حال بررسی احتمال سرقت گسترده داده‌ها از طریق API توسط گروهی وابسته به آزمایشگاه چینی DeepSeek در اواخر سال ۲۰۲۴ بوده است.

این داده‌ها ممکن است برای آموزش مدل‌های مشابه مورد استفاده قرار گرفته باشند که نقض آشکار شرایط استفاده از خدمات OpenAI محسوب می‌شود.

شایان ذکر است که OpenAI تابستان گذشته دسترسی به خدمات خود را در کشور چین مسدود کرده بود.

با توجه به افزایش پیچیدگی و قدرت مدل‌های هوش مصنوعی، به‌نظر می‌رسد OpenAI در مسیر جدیدی برای مدیریت بهتر، ایمن‌تر و مسئولانه‌تر این فناوری‌ها قدم گذاشته است.

احراز هویت سازمانی می‌تواند گامی مؤثر در راستای جلوگیری از سوء‌استفاده، حفاظت از اطلاعات و فراهم‌سازی زمینه‌ای مطمئن برای توسعه‌دهندگان واقعی و حرفه‌ای باشد.

این اقدام نه‌تنها بر آینده استفاده از APIهای OpenAI تأثیرگذار خواهد بود، بلکه می‌تواند الگویی برای سایر شرکت‌های فعال در حوزه هوش مصنوعی نیز تلقی شود.

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×