» اخبار اینترنت » آمازون با Bedrock وارد مسابقه هوش مصنوعی مولد می شود
Amazon Bedrock
اخبار اینترنت

آمازون با Bedrock وارد مسابقه هوش مصنوعی مولد می شود

فروردین 25, 1402 1۰13

به گزارش اپ خونه، آمازون کلاه خود را به سمت حلقه هوش مصنوعی مولد می اندازد. اما به جای اینکه مدل های هوش مصنوعی را به تنهایی بسازد، اشخاص ثالث را برای میزبانی مدل ها در AWS استخدام می کند.

AWS از Amazon Bedrock پرده برداری کرد که راهی برای ساخت اپلیکیشن های مولد مبتنی بر هوش مصنوعی از طریق مدل های از پیش آموزش دیده استارت آپ هایی از جمله آزمایشگاه های AI21 ، Anthropic و Stability AI ارائه می دهد .

Bedrock که در یک «پیش‌نمایش محدود» موجود است، دسترسی به Titan FM (مدل‌های پایه) را نیز ارائه می‌کند، خانواده‌ای از مدل‌هایی که در داخل توسط AWS آموزش دیده‌اند.

واسی فیلومین، معاون هوش مصنوعی مولد در AWS گفت:

«به‌کارگیری یادگیری ماشینی در دنیای واقعی – حل مشکلات واقعی کسب‌وکار در مقیاس – بهترین کاری است که ما انجام می‌دهیم. ما فکر می‌کنیم که هر اپلیکیشنی که وجود دارد را می‌توان با هوش مصنوعی مولد دوباره تصور کرد.»

آغاز به کار Bedrock تا حدودی توسط AWS که اخیراً با استارت‌آپ‌های هوش مصنوعی مولد در چند ماه گذشته به امضا رسیده است، علاوه بر سرمایه‌گذاری رو به رشد آن در فناوری مورد نیاز برای ساخت برنامه‌های هوش مصنوعی مولد، تلگراف شده است.

نوامبر گذشته، هوش مصنوعی پایداری AWS را به عنوان ارائه‌دهنده ابر ترجیحی خود انتخاب کرد و در ماه مارس، Hugging Face و AWS برای آوردن مدل‌های تولید متن قبلی به پلتفرم AWS همکاری کردند.

اخیراً، AWS یک شتاب دهنده هوش مصنوعی مولد برای استارت آپ ها راه اندازی کرد و گفت که با انویدیا برای ایجاد زیرساخت نسل بعدی برای آموزش مدل های هوش مصنوعی همکاری خواهد کرد.

بستر و مدل های سفارشی

بر اساس برآورد گراند ویو ریسرچ، Bedrock قدرتمندترین بازی آمازون تاکنون برای بازار مولد هوش مصنوعی است که می تواند تا سال ۲۰۳۰ نزدیک به ۱۱۰ میلیارد دلار ارزش داشته باشد .

با Bedrock، مشتریان AWS می‌توانند از طریق API از مدل‌های AI از ارائه‌دهندگان مختلف، از جمله AWS استفاده کنند.

جزئیات کمی مبهم هستند – آمازون قیمت رسمی را اعلام نکرده است. اما این شرکت تاکید کرد که Bedrock با هدف ساختن اپلیکیشن‌های هوش مصنوعی در مقیاس سازمانی توسط مشتریان بزرگ، آن را از برخی از سرویس‌های میزبانی مدل هوش مصنوعی، مانند Replicate (به‌علاوه رقبای فعلی Google Cloud و Azure) متمایز می‌کند.

یکی فرض می‌کند که فروشندگان مدل‌های هوش مصنوعی مولد با دسترسی AWS یا اشتراک درآمد بالقوه برای پیوستن به Bedrock تشویق شده‌اند. با این حال، آمازون شرایط مدل مجوز یا قراردادهای میزبانی را فاش نکرد.

مدل‌های شخص ثالث میزبانی شده در Bedrock شامل خانواده Jurassic-2 آزمایشگاه AI21 است که چند زبانه هستند و می‌توانند متنی به زبان‌های اسپانیایی، فرانسوی، آلمانی، پرتغالی، ایتالیایی و هلندی تولید کنند.

کلود، مدل آنتروپیک در بستر، می تواند طیف وسیعی از وظایف مکالمه و پردازش متن را انجام دهد.

در همین حال، مجموعه Stability AI از مدل‌های میزبانی متن به تصویر Bedrock، از جمله Stable Diffusion ، می‌تواند تصاویر، هنر، آرم‌ها و طرح‌های گرافیکی تولید کند.

بستر AWS

بستر AWS

در مورد پیشنهادات سفارشی آمازون، خانواده Titan FM در حال حاضر شامل دو مدل است که احتمالاً در آینده بیشتر خواهد شد: یک مدل تولید متن و یک مدل جاسازی.

مدل تولید متن، شبیه به GPT-4 OpenAI (اما نه لزوماً از نظر عملکرد همتراز)، می‌تواند وظایفی مانند نوشتن پست‌ها و ایمیل‌های وبلاگ، خلاصه کردن اسناد و استخراج اطلاعات از پایگاه‌های داده را انجام دهد.

مدل جاسازی ورودی‌های متنی مانند کلمات و عبارات را به نمایش‌های عددی، معروف به embeddings، ترجمه می‌کند که حاوی معنای معنایی متن است.

فیلومین ادعا می کند که شبیه به یکی از مدل هایی است که جستجو در Amazon.com را تقویت می کند.

مشتریان AWS می‌توانند هر مدل Bedrock را با اشاره به چند نمونه برچسب‌گذاری شده در Amazon S3، برنامه ذخیره‌سازی ابری آمازون، هر مدل Bedrock را سفارشی کنند – به اندازه ۲۰ عدد کافی است.

آمازون می‌گوید هیچ اطلاعات مشتری برای آموزش مدل‌های اساسی استفاده نمی‌شود.

فیلومین گفت:

«در AWS… ما نقشی کلیدی در دموکراتیک کردن یادگیری ماشین و در دسترس قرار دادن آن برای هر کسی که می‌خواهد از آن استفاده کند، ایفا کرده‌ایم. Amazon Bedrock ساده‌ترین راه برای ساخت و مقیاس‌بندی برنامه‌های هوش مصنوعی مولد با مدل‌های پایه است.»

البته، با توجه به سؤالات حقوقی بی پاسخ پیرامون هوش مصنوعی مولد، می توان به این فکر کرد که دقیقاً چند مشتری می گیرند.

مایکروسافت با مجموعه مدل‌های هوش مصنوعی مولد خود، Azure OpenAI Service، که مدل‌های OpenAI را با ویژگی‌های اضافی برای مشتریان سازمانی بسته‌بندی می‌کند، شاهد موفقیت بوده است.

مایکروسافت در یک پست وبلاگی اعلام کرد تا ماه مارس، بیش از ۱۰۰۰ مشتری از سرویس OpenAI Azure استفاده می کردند .

اما چندین پرونده قضایی در مورد فناوری هوش مصنوعی مولد از شرکت‌هایی از جمله OpenAI و Stability AI توسط شاکیانی مطرح شده است که ادعا می‌کنند داده‌های دارای حق چاپ، عمدتاً آثار هنری، بدون اجازه برای آموزش مدل‌های مولد استفاده شده است.

مدل‌های هوش مصنوعی مولد با آموزش روی نمونه‌های تصاویر و متن، که معمولاً به‌طور بی‌توجهی از وب حذف می‌شوند، خلق هنر، کد و موارد دیگر را «یاد می‌گیرند» .

در واقع می توان نسبت دادن یا اعتبار را تجاری کرد، و یک شهردار استرالیایی تهدید کرده است که علیه OpenAI به دلیل نادرستی که توسط مدل مولد ChatGPT منتشر شده است ، شکایتی را برای افترا مطرح خواهد کرد .

فیلومین رک و پوست کنده اعتماد به نفس زیادی ایجاد نکرد و از گفتن اینکه خانواده Titan FM آمازون دقیقاً بر روی کدام داده ها آموزش دیده اند خودداری کرد.

در عوض، او تاکید کرد که مدل‌های Titan برای شناسایی و حذف محتوای مضر در داده‌هایی که مشتریان AWS برای سفارشی‌سازی ارائه می‌کنند، رد ورودی محتوای نامناسب کاربران و فیلتر کردن خروجی‌های حاوی سخنان مشوق نفرت‌انگیز، ناسزا و خشونت ساخته شده‌اند.

البته، همانطور که توسط ChatGPT نشان داده شده است، حتی بهترین سیستم های فیلتر را نیز می توان دور زد.

به اصطلاح حملات تزریق سریع علیه ChatGPT و مدل‌های مشابه برای نوشتن بدافزار، شناسایی سوء استفاده‌ها در کد منبع باز و تولید محتوای جنسی، نژادپرستانه و اطلاعات نادرست مورد استفاده قرار گرفته‌اند.

مدل‌های هوش مصنوعی مولد تمایل دارند سوگیری‌ها را در داده‌های آموزشی تقویت کنند، یا – اگر داده‌های آموزشی مرتبط تمام شود – به سادگی موارد را درست می‌کنند.

اما فیلومین این نگرانی ها را کنار گذاشت.

او گفت: «ما متعهد به استفاده مسئولانه از این فناوری‌ها هستیم. ما در حال نظارت بر چشم انداز نظارتی خارج از کشور هستیم… ما وکلا زیادی داریم که به ما کمک می کنند تا ببینیم از چه داده هایی می توانیم استفاده کنیم و از چه اطلاعاتی نمی توانیم استفاده کنیم.»

به کنار تلاش های فیلومین برای اطمینان، برندها ممکن است نخواهند در مقابل همه چیزهایی که ممکن است اشتباه پیش برود، دست و پا بزنند.

در صورت شکایت، کاملاً مشخص نیست که آیا مشتریان AWS، خود AWS یا خالق مدل متخلف مسئول خواهند بود یا خیر. اما مشتریان فردی ممکن است مسئول  باشند – به خصوص اگر هزینه ای برای این امتیاز وجود نداشته باشد.

CodeWhisperer، Trainium و Inferentia2 در GA راه اندازی شدند

در مورد این موضوع و همزمان با فشار مولد بزرگ هوش مصنوعی امروز، آمازون CodeWhisperer ، سرویس تولید کد مبتنی بر هوش مصنوعی خود را، بدون هیچ گونه محدودیت استفاده برای توسعه دهندگان رایگان ساخت.

این حرکت نشان می‌دهد که CodeWhisperer جذبی را که آمازون امیدوار بود ندیده است.

رقیب اصلی آن، GitHub’s Copilot ، تا ژانویه بیش از یک میلیون کاربر داشت که هزاران نفر از آنها مشتریان سازمانی هستند.

CodeWhisperer مطمئناً زمینی برای جبران دارد – که با راه اندازی همزمان CodeWhisperer Professional Tier قصد دارد در سمت شرکت انجام دهد.

CodeWhisperer Professional Tier یک ورود به سیستم را با ادغام AWS Identity و Access Management و همچنین محدودیت های بالاتر در اسکن برای آسیب پذیری های امنیتی اضافه می کند.

CodeWhisperer در اواخر ژوئن به عنوان بخشی از AWS IDE Toolkit و افزونه های AWS Toolkit IDE به عنوان پاسخی به Copilot فوق الذکر راه اندازی شد.

CodeWhisperer که بر روی میلیاردها خط کد منبع باز در دسترس عموم و پایگاه کدهای خود آمازون و همچنین اسناد و کدهای موجود در انجمن های عمومی آموزش دیده است، می تواند تمام توابع را در زبان هایی مانند جاوا، جاوا اسکریپت و پایتون تنها بر اساس یک نظر یا چند ضربه کلید به صورت خودکار تکمیل کند.

Amazon CodeWhisperer

Amazon CodeWhisperer

CodeWhisperer اکنون از چندین زبان برنامه نویسی اضافی پشتیبانی می کند – به ویژه Go، Rust، PHP، Ruby، Kotlin، C، C++، Shell scripting، SQL و Scala – و مانند قبل، مجوزهای مرتبط با توابعی را که نشان می دهد دارای شباهت هستند برجسته می کند و به صورت اختیاری به قطعه های موجود موجود در داده های آموزشی آن فیلتر می کند .

برجسته کردن تلاشی برای جلوگیری از چالش های قانونی است که GitHub با Copilot با آن مواجه است. زمان نشان خواهد داد که آیا موفقیت آمیز است یا خیر.

فیلومین گفت: «توسعه‌دهندگان می‌توانند با این ابزارها بسیار کارآمدتر شوند. به‌روز بودن در مورد همه چیز برای توسعه‌دهندگان دشوار است… ابزارهایی مانند این به آن‌ها کمک می‌کنند که نگران آن نباشند.»

در منطقه ای که کمتر بحث برانگیز است، آمازون اعلام کرد که نمونه های Elastic Cloud Compute (EC2) Inf2 را با در دسترس بودن عمومی راه اندازی می کند که توسط تراشه های AWS Inferentia2 این شرکت پشتیبانی می شود ، که سال گذشته در کنفرانس re:Invent آمازون پیش نمایش داده شد.

نمونه‌های Inf2 برای سرعت بخشیدن به زمان‌های اجرای هوش مصنوعی طراحی شده‌اند، و خروجی ظاهراً بهتر و تأخیر کمتری برای بهبود عملکرد کلی قیمت استنتاج ارائه می‌کنند.

علاوه بر این، آمازون اعلام کرد، نمونه‌های آمازون EC2 Trn1n که توسط AWS Trainium ، تراشه‌ی سفارشی طراحی‌شده آمازون برای آموزش هوش مصنوعی پشتیبانی می‌شوند، نیز اکنون به طور کلی در دسترس مشتریان هستند.

آمازون می گوید که آنها حداکثر ۱۶۰۰ گیگابیت بر ثانیه پهنای باند شبکه را ارائه می دهند و به گونه ای طراحی شده اند که تا ۲۰ درصد عملکرد بالاتری نسبت به Trn1 برای مدل های بزرگ و شبکه فشرده ارائه دهند.

هر دو Inf2 و Trn1n با پیشنهادات رقیب گوگل و مایکروسافت مانند تراشه های TPU گوگل برای آموزش هوش مصنوعی رقابت می کنند.

فیلومین با اطمینان گفت:

«AWS مؤثرترین زیرساخت ابری را برای هوش مصنوعی مولد ارائه می‌کند. یکی از نیازهای مشتریان، هزینه‌های مناسب برای برخورد با این مدل‌ها است… این یکی از دلایلی است که بسیاری از مشتریان این مدل‌ها را تولید نکرده‌اند.»

سخنان جنگجویانه آنها – طبق گزارش ها، رشد هوش مصنوعی مولد Azure را به زانو درآورد.

آیا آمازون نیز به همین سرنوشت دچار خواهد شد؟ این باید مشخص شود.

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×