هوش مصنوعی

Intel و دیگران متعهد به ساخت ابزارهای هوش مصنوعی مولد باز برای شرکت هستند

به گزارش اپ خونه، آیا هوش مصنوعی مولد طراحی شده برای شرکت (به عنوان مثال، هوش مصنوعی که گزارش‌ها، فرمول‌های صفحه‌گسترده و غیره را به صورت خودکار تکمیل می‌کند) می‌تواند قابلیت همکاری داشته باشد؟

همراه با مجموعه‌ای از سازمان‌ها از جمله Cloudera و Intel، بنیاد لینوکس – سازمان غیرانتفاعی که از تعداد فزاینده‌ای از تلاش‌های منبع باز پشتیبانی و نگهداری می‌کند – قصد دارد این موضوع را کشف کند.

بنیاد لینوکس راه‌اندازی پلتفرم باز برای هوش مصنوعی سازمانی (OPEA) ، پروژه‌ای برای تقویت توسعه سیستم‌های هوش مصنوعی مولد باز، چند ارائه‌دهنده و ترکیب‌پذیر (یعنی ماژولار) را اعلام کرد.

زیر نظر LF AI و سازمان داده بنیاد لینوکس، که بر ابتکارات پلتفرم مرتبط با هوش مصنوعی و داده تمرکز دارد، هدف OPEA هموار کردن راه برای انتشار سیستم‌های هوش مصنوعی مولد «سخت‌شده» و «مقیاس‌پذیر» خواهد بود.

ابراهیم حداد، مدیر اجرایی LF AI و Data، در یک بیانیه مطبوعاتی گفت: بهترین نوآوری منبع باز از سراسر اکوسیستم در راه است.

حداد گفت: “OPEA با ایجاد یک چارچوب دقیق و قابل ترکیب که در خط مقدم پشته های فناوری قرار دارد، امکانات جدیدی را در هوش مصنوعی باز خواهد کرد. این ابتکار گواهی بر ماموریت ما برای هدایت نوآوری منبع باز و همکاری در هوش مصنوعی و جوامع داده تحت یک مدل حکومتی خنثی و باز است.”

علاوه بر Cloudera و Intel، OPEA – یکی از پروژه‌های Sandbox بنیاد لینوکس، یک نوع برنامه انکوباتور – در میان اعضای شرکت‌های سنگین وزن مانند اینتل، Red Hat متعلق به IBM، Hugging Face، Domino Data Lab، MariaDB و VMware به حساب می‌آید.

پس دقیقاً چه چیزی ممکن است با هم بسازند؟ حداد به چند احتمال اشاره می‌کند، مانند پشتیبانی «بهینه‌شده» از زنجیره‌های ابزار و کامپایلرهای هوش مصنوعی، که بار کاری هوش مصنوعی را قادر می‌سازد تا در اجزای سخت‌افزاری مختلف اجرا شود، و همچنین خطوط لوله «ناهمگن» برای تولید تقویت‌شده بازیابی (RAG).

RAG به طور فزاینده ای در برنامه های کاربردی سازمانی هوش مصنوعی مولد محبوب می شود، و فهمیدن دلیل آن دشوار نیست. پاسخ‌ها و اقدامات بیشتر مدل‌های هوش مصنوعی مولد محدود به داده‌هایی است که بر اساس آن‌ها آموزش دیده‌اند.

اما با RAG، پایگاه دانش یک مدل را می توان به اطلاعات خارج از داده های آموزشی اصلی گسترش داد.

مدل‌های RAG به این اطلاعات خارجی اشاره می‌کنند قبل از ایجاد پاسخ یا انجام یک کار – می‌تواند به شکل داده‌های اختصاصی شرکت، یک پایگاه داده عمومی یا ترکیبی از این دو باشد .

RAG

نموداری که مدل های RAG را توضیح می دهد

Intel در بیانیه مطبوعاتی خود جزئیات بیشتری را ارائه کرد :

شرکت‌ها با رویکرد خودت انجام بده [به RAG] به چالش کشیده می‌شوند، زیرا هیچ استانداردی در بین اجزای سازنده وجود ندارد که به شرکت‌ها اجازه می‌دهد راه‌حل‌های RAG را انتخاب و به کار ببرند که باز و قابل همکاری هستند و به آن‌ها کمک می‌کند سریع به بازار برسند.

OPEA قصد دارد با همکاری با صنعت برای استانداردسازی اجزا از جمله چارچوب ها، نقشه های معماری و راه حل های مرجع به این مسائل رسیدگی کند.

ارزیابی همچنین بخش مهمی از آنچه OPEA با آن مقابله می کند خواهد بود.

OPEA در مخزن GitHub خود ، روبریکی را برای درجه‌بندی سیستم‌های هوش مصنوعی مولد در چهار محور پیشنهاد می‌کند: عملکرد، ویژگی‌ها، قابلیت اطمینان و آمادگی «در سطح سازمانی».

عملکرد همانطور که OPEA تعریف می کند به معیارهای “جعبه سیاه” از موارد استفاده در دنیای واقعی مربوط می شود. ویژگی ها ارزیابی قابلیت همکاری سیستم، انتخاب های استقرار و سهولت استفاده است.

قابلیت اعتماد به توانایی یک مدل هوش مصنوعی برای تضمین «استقامت» و کیفیت می‌پردازد و آمادگی سازمانی بر الزامات برای راه‌اندازی و راه‌اندازی یک سیستم بدون مسائل عمده تمرکز دارد.

راشل روملیوتیس، مدیر استراتژی منبع باز Intel، می گوید که OPEA با جامعه منبع باز همکاری خواهد کرد تا آزمایش هایی را بر اساس این عنوان ارائه دهد، همچنین ارزیابی و درجه بندی استقرارهای هوش مصنوعی مولد را در صورت درخواست ارائه می دهد.

تلاش های دیگر OPEA در حال حاضر کمی در هوا است. اما حداد پتانسیل توسعه مدل باز را در امتداد خطوط رو به گسترش خانواده Llama متا و DBRX Databricks قرار داد .

در این راستا، در مخزن OPEA، اینتل/Intel قبلاً پیاده‌سازی‌های مرجعی را برای یک چت ربات مبتنی بر هوش مصنوعی، خلاصه‌کننده اسناد و تولیدکننده کد بهینه‌سازی شده برای سخت‌افزار Xeon 6 و Gaudi 2 ارائه کرده است.

اکنون، اعضای OPEA به وضوح در ساخت ابزار برای هوش مصنوعی مولد سازمانی سرمایه گذاری کرده اند (و به نفع خود هستند).

کلودرا اخیراً شراکت هایی را برای ایجاد آنچه که به عنوان یک “اکوسیستم هوش مصنوعی” در فضای ابری ارائه می کند، راه اندازی کرده است.

Domino مجموعه‌ای از برنامه‌ها را برای ساخت و ممیزی هوش مصنوعی مولد پیشبرد کسب‌وکار ارائه می‌کند و VMware – با جهت گیری به سمت زیرساخت هوش مصنوعی سازمانی – در آگوست گذشته محصولات محاسباتی “هوش مصنوعی خصوصی” جدیدی را عرضه کرد.

سوال این است که آیا این فروشندگان واقعاً با هم همکاری خواهند کرد تا ابزارهای هوش مصنوعی متقابل سازگار را تحت OPEA بسازند.

یک مزیت آشکار برای انجام این کار وجود دارد. مشتریان با خوشحالی از چندین فروشنده بسته به نیاز، منابع و بودجه خود استفاده می کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا