آمازون با Bedrock وارد مسابقه هوش مصنوعی مولد می شود
به گزارش اپ خونه، آمازون کلاه خود را به سمت حلقه هوش مصنوعی مولد می اندازد. اما به جای اینکه مدل های هوش مصنوعی را به تنهایی بسازد، اشخاص ثالث را برای میزبانی مدل ها در AWS استخدام می کند.
AWS از Amazon Bedrock پرده برداری کرد که راهی برای ساخت اپلیکیشن های مولد مبتنی بر هوش مصنوعی از طریق مدل های از پیش آموزش دیده استارت آپ هایی از جمله آزمایشگاه های AI21 ، Anthropic و Stability AI ارائه می دهد .
Bedrock که در یک «پیشنمایش محدود» موجود است، دسترسی به Titan FM (مدلهای پایه) را نیز ارائه میکند، خانوادهای از مدلهایی که در داخل توسط AWS آموزش دیدهاند.
واسی فیلومین، معاون هوش مصنوعی مولد در AWS گفت:
«بهکارگیری یادگیری ماشینی در دنیای واقعی – حل مشکلات واقعی کسبوکار در مقیاس – بهترین کاری است که ما انجام میدهیم. ما فکر میکنیم که هر اپلیکیشنی که وجود دارد را میتوان با هوش مصنوعی مولد دوباره تصور کرد.»
آغاز به کار Bedrock تا حدودی توسط AWS که اخیراً با استارتآپهای هوش مصنوعی مولد در چند ماه گذشته به امضا رسیده است، علاوه بر سرمایهگذاری رو به رشد آن در فناوری مورد نیاز برای ساخت برنامههای هوش مصنوعی مولد، تلگراف شده است.
نوامبر گذشته، هوش مصنوعی پایداری AWS را به عنوان ارائهدهنده ابر ترجیحی خود انتخاب کرد و در ماه مارس، Hugging Face و AWS برای آوردن مدلهای تولید متن قبلی به پلتفرم AWS همکاری کردند.
اخیراً، AWS یک شتاب دهنده هوش مصنوعی مولد برای استارت آپ ها راه اندازی کرد و گفت که با انویدیا برای ایجاد زیرساخت نسل بعدی برای آموزش مدل های هوش مصنوعی همکاری خواهد کرد.
بستر و مدل های سفارشی
بر اساس برآورد گراند ویو ریسرچ، Bedrock قدرتمندترین بازی آمازون تاکنون برای بازار مولد هوش مصنوعی است که می تواند تا سال ۲۰۳۰ نزدیک به ۱۱۰ میلیارد دلار ارزش داشته باشد .
با Bedrock، مشتریان AWS میتوانند از طریق API از مدلهای AI از ارائهدهندگان مختلف، از جمله AWS استفاده کنند.
جزئیات کمی مبهم هستند – آمازون قیمت رسمی را اعلام نکرده است. اما این شرکت تاکید کرد که Bedrock با هدف ساختن اپلیکیشنهای هوش مصنوعی در مقیاس سازمانی توسط مشتریان بزرگ، آن را از برخی از سرویسهای میزبانی مدل هوش مصنوعی، مانند Replicate (بهعلاوه رقبای فعلی Google Cloud و Azure) متمایز میکند.
یکی فرض میکند که فروشندگان مدلهای هوش مصنوعی مولد با دسترسی AWS یا اشتراک درآمد بالقوه برای پیوستن به Bedrock تشویق شدهاند. با این حال، آمازون شرایط مدل مجوز یا قراردادهای میزبانی را فاش نکرد.
مدلهای شخص ثالث میزبانی شده در Bedrock شامل خانواده Jurassic-2 آزمایشگاه AI21 است که چند زبانه هستند و میتوانند متنی به زبانهای اسپانیایی، فرانسوی، آلمانی، پرتغالی، ایتالیایی و هلندی تولید کنند.
کلود، مدل آنتروپیک در بستر، می تواند طیف وسیعی از وظایف مکالمه و پردازش متن را انجام دهد.
در همین حال، مجموعه Stability AI از مدلهای میزبانی متن به تصویر Bedrock، از جمله Stable Diffusion ، میتواند تصاویر، هنر، آرمها و طرحهای گرافیکی تولید کند.
بستر AWS
در مورد پیشنهادات سفارشی آمازون، خانواده Titan FM در حال حاضر شامل دو مدل است که احتمالاً در آینده بیشتر خواهد شد: یک مدل تولید متن و یک مدل جاسازی.
مدل تولید متن، شبیه به GPT-4 OpenAI (اما نه لزوماً از نظر عملکرد همتراز)، میتواند وظایفی مانند نوشتن پستها و ایمیلهای وبلاگ، خلاصه کردن اسناد و استخراج اطلاعات از پایگاههای داده را انجام دهد.
مدل جاسازی ورودیهای متنی مانند کلمات و عبارات را به نمایشهای عددی، معروف به embeddings، ترجمه میکند که حاوی معنای معنایی متن است.
فیلومین ادعا می کند که شبیه به یکی از مدل هایی است که جستجو در Amazon.com را تقویت می کند.
مشتریان AWS میتوانند هر مدل Bedrock را با اشاره به چند نمونه برچسبگذاری شده در Amazon S3، برنامه ذخیرهسازی ابری آمازون، هر مدل Bedrock را سفارشی کنند – به اندازه ۲۰ عدد کافی است.
آمازون میگوید هیچ اطلاعات مشتری برای آموزش مدلهای اساسی استفاده نمیشود.
فیلومین گفت:
«در AWS… ما نقشی کلیدی در دموکراتیک کردن یادگیری ماشین و در دسترس قرار دادن آن برای هر کسی که میخواهد از آن استفاده کند، ایفا کردهایم. Amazon Bedrock سادهترین راه برای ساخت و مقیاسبندی برنامههای هوش مصنوعی مولد با مدلهای پایه است.»
البته، با توجه به سؤالات حقوقی بی پاسخ پیرامون هوش مصنوعی مولد، می توان به این فکر کرد که دقیقاً چند مشتری می گیرند.
مایکروسافت با مجموعه مدلهای هوش مصنوعی مولد خود، Azure OpenAI Service، که مدلهای OpenAI را با ویژگیهای اضافی برای مشتریان سازمانی بستهبندی میکند، شاهد موفقیت بوده است.
مایکروسافت در یک پست وبلاگی اعلام کرد تا ماه مارس، بیش از ۱۰۰۰ مشتری از سرویس OpenAI Azure استفاده می کردند .
اما چندین پرونده قضایی در مورد فناوری هوش مصنوعی مولد از شرکتهایی از جمله OpenAI و Stability AI توسط شاکیانی مطرح شده است که ادعا میکنند دادههای دارای حق چاپ، عمدتاً آثار هنری، بدون اجازه برای آموزش مدلهای مولد استفاده شده است.
مدلهای هوش مصنوعی مولد با آموزش روی نمونههای تصاویر و متن، که معمولاً بهطور بیتوجهی از وب حذف میشوند، خلق هنر، کد و موارد دیگر را «یاد میگیرند» .
در واقع می توان نسبت دادن یا اعتبار را تجاری کرد، و یک شهردار استرالیایی تهدید کرده است که علیه OpenAI به دلیل نادرستی که توسط مدل مولد ChatGPT منتشر شده است ، شکایتی را برای افترا مطرح خواهد کرد .
فیلومین رک و پوست کنده اعتماد به نفس زیادی ایجاد نکرد و از گفتن اینکه خانواده Titan FM آمازون دقیقاً بر روی کدام داده ها آموزش دیده اند خودداری کرد.
در عوض، او تاکید کرد که مدلهای Titan برای شناسایی و حذف محتوای مضر در دادههایی که مشتریان AWS برای سفارشیسازی ارائه میکنند، رد ورودی محتوای نامناسب کاربران و فیلتر کردن خروجیهای حاوی سخنان مشوق نفرتانگیز، ناسزا و خشونت ساخته شدهاند.
البته، همانطور که توسط ChatGPT نشان داده شده است، حتی بهترین سیستم های فیلتر را نیز می توان دور زد.
به اصطلاح حملات تزریق سریع علیه ChatGPT و مدلهای مشابه برای نوشتن بدافزار، شناسایی سوء استفادهها در کد منبع باز و تولید محتوای جنسی، نژادپرستانه و اطلاعات نادرست مورد استفاده قرار گرفتهاند.
مدلهای هوش مصنوعی مولد تمایل دارند سوگیریها را در دادههای آموزشی تقویت کنند، یا – اگر دادههای آموزشی مرتبط تمام شود – به سادگی موارد را درست میکنند.
اما فیلومین این نگرانی ها را کنار گذاشت.
او گفت: «ما متعهد به استفاده مسئولانه از این فناوریها هستیم. ما در حال نظارت بر چشم انداز نظارتی خارج از کشور هستیم… ما وکلا زیادی داریم که به ما کمک می کنند تا ببینیم از چه داده هایی می توانیم استفاده کنیم و از چه اطلاعاتی نمی توانیم استفاده کنیم.»
به کنار تلاش های فیلومین برای اطمینان، برندها ممکن است نخواهند در مقابل همه چیزهایی که ممکن است اشتباه پیش برود، دست و پا بزنند.
در صورت شکایت، کاملاً مشخص نیست که آیا مشتریان AWS، خود AWS یا خالق مدل متخلف مسئول خواهند بود یا خیر. اما مشتریان فردی ممکن است مسئول باشند – به خصوص اگر هزینه ای برای این امتیاز وجود نداشته باشد.
CodeWhisperer، Trainium و Inferentia2 در GA راه اندازی شدند
در مورد این موضوع و همزمان با فشار مولد بزرگ هوش مصنوعی امروز، آمازون CodeWhisperer ، سرویس تولید کد مبتنی بر هوش مصنوعی خود را، بدون هیچ گونه محدودیت استفاده برای توسعه دهندگان رایگان ساخت.
این حرکت نشان میدهد که CodeWhisperer جذبی را که آمازون امیدوار بود ندیده است.
رقیب اصلی آن، GitHub’s Copilot ، تا ژانویه بیش از یک میلیون کاربر داشت که هزاران نفر از آنها مشتریان سازمانی هستند.
CodeWhisperer مطمئناً زمینی برای جبران دارد – که با راه اندازی همزمان CodeWhisperer Professional Tier قصد دارد در سمت شرکت انجام دهد.
CodeWhisperer Professional Tier یک ورود به سیستم را با ادغام AWS Identity و Access Management و همچنین محدودیت های بالاتر در اسکن برای آسیب پذیری های امنیتی اضافه می کند.
CodeWhisperer در اواخر ژوئن به عنوان بخشی از AWS IDE Toolkit و افزونه های AWS Toolkit IDE به عنوان پاسخی به Copilot فوق الذکر راه اندازی شد.
CodeWhisperer که بر روی میلیاردها خط کد منبع باز در دسترس عموم و پایگاه کدهای خود آمازون و همچنین اسناد و کدهای موجود در انجمن های عمومی آموزش دیده است، می تواند تمام توابع را در زبان هایی مانند جاوا، جاوا اسکریپت و پایتون تنها بر اساس یک نظر یا چند ضربه کلید به صورت خودکار تکمیل کند.
Amazon CodeWhisperer
CodeWhisperer اکنون از چندین زبان برنامه نویسی اضافی پشتیبانی می کند – به ویژه Go، Rust، PHP، Ruby، Kotlin، C، C++، Shell scripting، SQL و Scala – و مانند قبل، مجوزهای مرتبط با توابعی را که نشان می دهد دارای شباهت هستند برجسته می کند و به صورت اختیاری به قطعه های موجود موجود در داده های آموزشی آن فیلتر می کند .
برجسته کردن تلاشی برای جلوگیری از چالش های قانونی است که GitHub با Copilot با آن مواجه است. زمان نشان خواهد داد که آیا موفقیت آمیز است یا خیر.
فیلومین گفت: «توسعهدهندگان میتوانند با این ابزارها بسیار کارآمدتر شوند. بهروز بودن در مورد همه چیز برای توسعهدهندگان دشوار است… ابزارهایی مانند این به آنها کمک میکنند که نگران آن نباشند.»
در منطقه ای که کمتر بحث برانگیز است، آمازون اعلام کرد که نمونه های Elastic Cloud Compute (EC2) Inf2 را با در دسترس بودن عمومی راه اندازی می کند که توسط تراشه های AWS Inferentia2 این شرکت پشتیبانی می شود ، که سال گذشته در کنفرانس re:Invent آمازون پیش نمایش داده شد.
نمونههای Inf2 برای سرعت بخشیدن به زمانهای اجرای هوش مصنوعی طراحی شدهاند، و خروجی ظاهراً بهتر و تأخیر کمتری برای بهبود عملکرد کلی قیمت استنتاج ارائه میکنند.
علاوه بر این، آمازون اعلام کرد، نمونههای آمازون EC2 Trn1n که توسط AWS Trainium ، تراشهی سفارشی طراحیشده آمازون برای آموزش هوش مصنوعی پشتیبانی میشوند، نیز اکنون به طور کلی در دسترس مشتریان هستند.
آمازون می گوید که آنها حداکثر ۱۶۰۰ گیگابیت بر ثانیه پهنای باند شبکه را ارائه می دهند و به گونه ای طراحی شده اند که تا ۲۰ درصد عملکرد بالاتری نسبت به Trn1 برای مدل های بزرگ و شبکه فشرده ارائه دهند.
هر دو Inf2 و Trn1n با پیشنهادات رقیب گوگل و مایکروسافت مانند تراشه های TPU گوگل برای آموزش هوش مصنوعی رقابت می کنند.
فیلومین با اطمینان گفت:
«AWS مؤثرترین زیرساخت ابری را برای هوش مصنوعی مولد ارائه میکند. یکی از نیازهای مشتریان، هزینههای مناسب برای برخورد با این مدلها است… این یکی از دلایلی است که بسیاری از مشتریان این مدلها را تولید نکردهاند.»
سخنان جنگجویانه آنها – طبق گزارش ها، رشد هوش مصنوعی مولد Azure را به زانو درآورد.
آیا آمازون نیز به همین سرنوشت دچار خواهد شد؟ این باید مشخص شود.