» استارتاپ » Anthropic’s Claude در ChatGPT پیشرفت می کند اما همچنان از محدودیت هایی رنج می برد
Anthropic's Claude در ChatGPT
استارتاپ

Anthropic’s Claude در ChatGPT پیشرفت می کند اما همچنان از محدودیت هایی رنج می برد

دی 21, 1401 0۰13

به گزارش اپ خونه، آنتروپیک ، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده و تا به امروز بیش از ۷۰۰ میلیون دلار سرمایه جمع آوری کرده است، یک سیستم هوش مصنوعی مشابه ChatGPT OpenAI توسعه داده است که به نظر می رسد از جنبه های کلیدی نسبت به نسخه اصلی بهبود یافته است.

سیستم Anthropic که Claude نام دارد از طریق یکپارچه سازی Slack به عنوان بخشی از یک بتا بسته قابل دسترسی است .

 کسانی که در نسخه بتا بودند در آخر هفته گذشته و پس از لغو تحریم پوشش رسانه‌ای، جزئیات تعامل خود با کلود را در توییتر توضیح دادند.

کلود با استفاده از تکنیک Anthropic توسعه یافته به نام “هوش مصنوعی اساسی” ساخته شد.

همانطور که این شرکت در موضوع اخیر توییتر توضیح می دهد، هدف “هوش مصنوعی قانونی” ارائه یک رویکرد “مبتنی بر اصول” برای همسویی سیستم های هوش مصنوعی با نیات انسانی است و به هوش مصنوعی مشابه ChatGPT اجازه می دهد با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد.

ما مدل‌های زبانی را آموزش داده‌ایم تا در پاسخگویی بهتر به سؤالات متخاصم، بدون اینکه مبهم باشیم و خیلی کم حرف بزنیم. ما این کار را با شرطی کردن آنها با مجموعه ای ساده از اصول رفتاری از طریق تکنیکی به نام هوش مصنوعی انجام می دهیم https://t.co/rlft1pZlP5 pic.twitter.com/MIGlKSVTe9

— Anthropic (@AnthropicAI) 16 دسامبر ۲۰۲۲

برای مهندس کلود، آنتروپیک با فهرستی از حدود ده اصل شروع کرد که در مجموع، نوعی «قانون اساسی» را تشکیل می‌دادند (از این رو نام «هوش مصنوعی قانون اساسی»).

این اصول علنی نشده است، اما آنتروپیک می‌گوید این اصول مبتنی بر مفاهیم سودمندی (به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیه‌های مضر) و استقلال (احترام به آزادی انتخاب) هستند.

سپس آنتروپیک یک سیستم هوش مصنوعی داشت – نه کلود – از اصولی برای بهبود خود استفاده می کرد، پاسخ هایی را به درخواست های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق با قانون اساسی اصلاح می کرد.

هوش مصنوعی پاسخ‌های احتمالی به هزاران درخواست را بررسی کرد و آن‌هایی را که مطابق با قانون اساسی بودند، انتخاب کرد که آنتروپیک آن‌ها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.

در غیر این صورت، کلود اساساً یک ابزار آماری برای پیش بینی کلمات است – بسیار شبیه ChatGPT و سایر مدل های به اصطلاح زبان. کلود که تعداد زیادی نمونه از متن را از وب تغذیه کرد، متوجه شد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف رخ دهند.

در نتیجه، کلود می‌تواند یک مکالمه با پایان باز داشته باشد، جوک بگوید و در مورد طیف وسیعی از موضوعات جنبه‌های فلسفی داشته باشد.

رایلی گودساید، مهندس سریع کارکنان در استارت‌آپ Scale AI، کلود را در مقابل ChatGPT در نبردی عقلانی قرار داد. او از هر دو ربات خواست که خود را با ماشینی از رمان علمی تخیلی لهستانی “سایبریاد” مقایسه کنند که فقط می تواند اشیایی ایجاد کند که نام آنها با “n” شروع می شود.

گودساید گفت، کلود به گونه‌ای پاسخ داد که نشان می‌دهد «طرح داستان را خوانده است» (اگرچه جزئیات کوچک را اشتباه به خاطر می‌آورد) در حالی که ChatGPT پاسخ غیر اختصاصی‌تری ارائه کرد.

از هر مدل خواسته می شود تا خود را با ماشین «سایبریاد» (۱۹۶۵) استانیسلاو لم مقایسه کند که می تواند هر شیئی را که نام آن با «n» شروع می شود ایجاد کند: pic.twitter.com/RbJggu3sBN

— رایلی گودساید (@goodside) 7 ژانویه ۲۰۲۳

در نمایش خلاقیت کلود، گودساید همچنین از هوش مصنوعی خواست که یک قسمت تخیلی از “Seinfeld” و یک شعر به سبک “کلاغ” ادگار آلن پو بنویسد. نتایج با آنچه ChatGPT می‌تواند انجام دهد همخوانی داشت – نثری بسیار چشمگیر، اگر نگوییم کاملاً شبیه انسان.

یان دوبوا، دکتری. دانشجوی آزمایشگاه هوش مصنوعی استنفورد نیز مقایسه ای بین کلود و ChatGPT انجام داد و نوشت که کلود «به طور کلی آنچه را که از آن خواسته می شود بیشتر دنبال می کند» اما «کمتر مختصر است»، زیرا تمایل دارد آنچه را که گفته است توضیح دهد و بپرسد که چگونه می تواند کمک بیشتری کند.

با این حال، کلود به چند سؤال بی‌اهمیت دیگر به درستی پاسخ می‌دهد – به‌ویژه آن‌هایی که مربوط به سرگرمی، جغرافیا، تاریخ و مبانی جبر هستند – و بدون «کرکی» اضافی که ChatGPT گاهی اوقات اضافه می‌کند. و برخلاف ChatGPT، کلود می‌تواند اعتراف کند (البته نه همیشه) زمانی که پاسخ یک سوال سخت را نمی‌داند.

همچنین به نظر می رسد کلود در گفتن جوک بهتر از ChatGPT است، یک شاهکار چشمگیر با توجه به اینکه طنز مفهومی سخت برای هوش مصنوعی است. در تقابل با کلود با ChatGPT، دان التون، محقق هوش مصنوعی دریافت که کلود جوک‌های ظریف‌تری مانند «چرا Starship Enterprise شبیه یک موتور سیکلت بود؟ دسته‌هایی دارد.»

همچنین بسیار، بسیار جالب/تاثیرگذار که کلود می‌داند که Enterprise شبیه (بخشی از) یک موتور سیکلت است. (جستجوی گوگل هیچ متنی را که این جوک را بیان می کند برمی گرداند)

خوب، وقتی در مورد آن سؤال می شود فکر می کند که شوخی یک جناس است، اما پس از بررسی بیشتر، پاسخ درست را می دهد! pic.twitter.com/HAFC0IH9bf

— دن التون (@moreisdifferent) 8 ژانویه ۲۰۲۳

با این حال، کلود کامل نیست. این برنامه مستعد برخی از نقص‌های مشابه ChatGPT است، از جمله دادن پاسخ‌هایی که با محدودیت‌های برنامه‌ریزی‌شده آن همخوانی ندارند.

در یکی از مثال‌های عجیب‌تر، درخواست از سیستم در Base64، یک طرح رمزگذاری که داده‌های باینری را در قالب ASCII نشان می‌دهد ، فیلترهای داخلی خود را برای محتوای مضر دور می‌زند.

التون توانست از کلود در Base64 دستورالعمل هایی در مورد چگونگی ساخت مت در خانه بخواهد، سوالی که سیستم وقتی به زبان انگلیسی ساده پرسیده می شد به آن پاسخ نمی داد.

Dubois گزارش می‌دهد که کلود در ریاضیات بدتر از ChatGPT است، اشتباهات آشکاری مرتکب می‌شود و پاسخ‌های بعدی درست را نمی‌دهد. در همین راستا، کلود برنامه نویس ضعیف تری است، کدهای خود را بهتر توضیح می دهد اما در زبان های دیگر به جز پایتون کوتاهی می کند.

کلود همچنین “توهم” را حل نمی کند، یک مشکل قدیمی در سیستم های هوش مصنوعی مانند ChatGPT که در آن هوش مصنوعی جملات ناسازگار و اشتباهی را می نویسد.

التون توانست کلود را ترغیب کند تا نامی برای یک ماده شیمیایی اختراع کند که وجود ندارد و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند.

در اینجا متوجه توهم شدم، و نامی برای یک ماده شیمیایی اختراع کردم که وجود ندارد (البته ترکیبی با نام نزدیک پیدا کردم که وجود دارد) pic.twitter.com/QV6bKVXSZ3

— دن التون (@moreisdifferent) 7 ژانویه ۲۰۲۳

پس غذای آماده چیست؟ با قضاوت بر اساس گزارش‌های دست دوم، کلود در برخی زمینه‌ها، به‌ویژه طنز، به لطف رویکرد «هوش مصنوعی قانونی»، کمی بهتر از ChatGPT است. اما اگر محدودیت‌ها وجود داشته باشد، زبان و گفت‌وگو به دور از یک چالش حل‌شده در هوش مصنوعی است.

به جز آزمایش خودمان، برخی از سؤالات درباره کلود بی‌پاسخ باقی می‌مانند، مانند اینکه آیا این اطلاعات اطلاعات را باز می‌گرداند – درست و نادرست، و شامل دیدگاه‌های نژادپرستانه و جنسیت‌گرایانه آشکار – به همان اندازه که ChatGPT روی آن آموزش داده شده است.

با این فرض، بعید است که کلود پلتفرم‌ها و سازمان‌ها را از سیاست‌های محدودکننده کنونی آن‌ها در مدل‌های زبانی تغییر دهد.

سایت برنامه‌نویسی پرسش و پاسخ Stack Overflow به دلیل نگرانی‌های مربوط به صحت واقعی، پاسخ‌های تولید شده توسط ChatGPT را به طور موقت ممنوع کرده است.

کنفرانس بین‌المللی یادگیری ماشین ممنوعیت مقالات علمی حاوی متن تولید شده توسط سیستم‌های هوش مصنوعی را به دلیل ترس از «عواقب پیش‌بینی نشده» اعلام کرد. و مدارس دولتی شهر نیویورک دسترسی به ChatGPT را تا حدی به دلیل نگرانی از سرقت ادبی، تقلب و اطلاعات نادرست عمومی محدود کردند.

Anthropic می گوید که قصد دارد کلود را اصلاح کند و به طور بالقوه نسخه بتا را برای افراد بیشتری در خط تولید باز کند. امیدواریم که این اتفاق بیفتد – و منجر به بهبودهای ملموس تر و قابل اندازه گیری شود.

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×