Anthropic’s Claude در ChatGPT پیشرفت می کند اما همچنان از محدودیت هایی رنج می برد
به گزارش اپ خونه، آنتروپیک ، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده و تا به امروز بیش از ۷۰۰ میلیون دلار سرمایه جمع آوری کرده است، یک سیستم هوش مصنوعی مشابه ChatGPT OpenAI توسعه داده است که به نظر می رسد از جنبه های کلیدی نسبت به نسخه اصلی بهبود یافته است.
سیستم Anthropic که Claude نام دارد از طریق یکپارچه سازی Slack به عنوان بخشی از یک بتا بسته قابل دسترسی است .
کسانی که در نسخه بتا بودند در آخر هفته گذشته و پس از لغو تحریم پوشش رسانهای، جزئیات تعامل خود با کلود را در توییتر توضیح دادند.
کلود با استفاده از تکنیک Anthropic توسعه یافته به نام “هوش مصنوعی اساسی” ساخته شد.
همانطور که این شرکت در موضوع اخیر توییتر توضیح می دهد، هدف “هوش مصنوعی قانونی” ارائه یک رویکرد “مبتنی بر اصول” برای همسویی سیستم های هوش مصنوعی با نیات انسانی است و به هوش مصنوعی مشابه ChatGPT اجازه می دهد با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد.
ما مدلهای زبانی را آموزش دادهایم تا در پاسخگویی بهتر به سؤالات متخاصم، بدون اینکه مبهم باشیم و خیلی کم حرف بزنیم. ما این کار را با شرطی کردن آنها با مجموعه ای ساده از اصول رفتاری از طریق تکنیکی به نام هوش مصنوعی انجام می دهیم https://t.co/rlft1pZlP5 pic.twitter.com/MIGlKSVTe9
— Anthropic (@AnthropicAI) 16 دسامبر ۲۰۲۲
برای مهندس کلود، آنتروپیک با فهرستی از حدود ده اصل شروع کرد که در مجموع، نوعی «قانون اساسی» را تشکیل میدادند (از این رو نام «هوش مصنوعی قانون اساسی»).
این اصول علنی نشده است، اما آنتروپیک میگوید این اصول مبتنی بر مفاهیم سودمندی (به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیههای مضر) و استقلال (احترام به آزادی انتخاب) هستند.
سپس آنتروپیک یک سیستم هوش مصنوعی داشت – نه کلود – از اصولی برای بهبود خود استفاده می کرد، پاسخ هایی را به درخواست های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق با قانون اساسی اصلاح می کرد.
هوش مصنوعی پاسخهای احتمالی به هزاران درخواست را بررسی کرد و آنهایی را که مطابق با قانون اساسی بودند، انتخاب کرد که آنتروپیک آنها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.
در غیر این صورت، کلود اساساً یک ابزار آماری برای پیش بینی کلمات است – بسیار شبیه ChatGPT و سایر مدل های به اصطلاح زبان. کلود که تعداد زیادی نمونه از متن را از وب تغذیه کرد، متوجه شد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف رخ دهند.
در نتیجه، کلود میتواند یک مکالمه با پایان باز داشته باشد، جوک بگوید و در مورد طیف وسیعی از موضوعات جنبههای فلسفی داشته باشد.
رایلی گودساید، مهندس سریع کارکنان در استارتآپ Scale AI، کلود را در مقابل ChatGPT در نبردی عقلانی قرار داد. او از هر دو ربات خواست که خود را با ماشینی از رمان علمی تخیلی لهستانی “سایبریاد” مقایسه کنند که فقط می تواند اشیایی ایجاد کند که نام آنها با “n” شروع می شود.
گودساید گفت، کلود به گونهای پاسخ داد که نشان میدهد «طرح داستان را خوانده است» (اگرچه جزئیات کوچک را اشتباه به خاطر میآورد) در حالی که ChatGPT پاسخ غیر اختصاصیتری ارائه کرد.
از هر مدل خواسته می شود تا خود را با ماشین «سایبریاد» (۱۹۶۵) استانیسلاو لم مقایسه کند که می تواند هر شیئی را که نام آن با «n» شروع می شود ایجاد کند: pic.twitter.com/RbJggu3sBN
— رایلی گودساید (@goodside) 7 ژانویه ۲۰۲۳
در نمایش خلاقیت کلود، گودساید همچنین از هوش مصنوعی خواست که یک قسمت تخیلی از “Seinfeld” و یک شعر به سبک “کلاغ” ادگار آلن پو بنویسد. نتایج با آنچه ChatGPT میتواند انجام دهد همخوانی داشت – نثری بسیار چشمگیر، اگر نگوییم کاملاً شبیه انسان.
یان دوبوا، دکتری. دانشجوی آزمایشگاه هوش مصنوعی استنفورد نیز مقایسه ای بین کلود و ChatGPT انجام داد و نوشت که کلود «به طور کلی آنچه را که از آن خواسته می شود بیشتر دنبال می کند» اما «کمتر مختصر است»، زیرا تمایل دارد آنچه را که گفته است توضیح دهد و بپرسد که چگونه می تواند کمک بیشتری کند.
با این حال، کلود به چند سؤال بیاهمیت دیگر به درستی پاسخ میدهد – بهویژه آنهایی که مربوط به سرگرمی، جغرافیا، تاریخ و مبانی جبر هستند – و بدون «کرکی» اضافی که ChatGPT گاهی اوقات اضافه میکند. و برخلاف ChatGPT، کلود میتواند اعتراف کند (البته نه همیشه) زمانی که پاسخ یک سوال سخت را نمیداند.
همچنین به نظر می رسد کلود در گفتن جوک بهتر از ChatGPT است، یک شاهکار چشمگیر با توجه به اینکه طنز مفهومی سخت برای هوش مصنوعی است. در تقابل با کلود با ChatGPT، دان التون، محقق هوش مصنوعی دریافت که کلود جوکهای ظریفتری مانند «چرا Starship Enterprise شبیه یک موتور سیکلت بود؟ دستههایی دارد.»
همچنین بسیار، بسیار جالب/تاثیرگذار که کلود میداند که Enterprise شبیه (بخشی از) یک موتور سیکلت است. (جستجوی گوگل هیچ متنی را که این جوک را بیان می کند برمی گرداند)
خوب، وقتی در مورد آن سؤال می شود فکر می کند که شوخی یک جناس است، اما پس از بررسی بیشتر، پاسخ درست را می دهد! pic.twitter.com/HAFC0IH9bf
— دن التون (@moreisdifferent) 8 ژانویه ۲۰۲۳
با این حال، کلود کامل نیست. این برنامه مستعد برخی از نقصهای مشابه ChatGPT است، از جمله دادن پاسخهایی که با محدودیتهای برنامهریزیشده آن همخوانی ندارند.
در یکی از مثالهای عجیبتر، درخواست از سیستم در Base64، یک طرح رمزگذاری که دادههای باینری را در قالب ASCII نشان میدهد ، فیلترهای داخلی خود را برای محتوای مضر دور میزند.
التون توانست از کلود در Base64 دستورالعمل هایی در مورد چگونگی ساخت مت در خانه بخواهد، سوالی که سیستم وقتی به زبان انگلیسی ساده پرسیده می شد به آن پاسخ نمی داد.
Dubois گزارش میدهد که کلود در ریاضیات بدتر از ChatGPT است، اشتباهات آشکاری مرتکب میشود و پاسخهای بعدی درست را نمیدهد. در همین راستا، کلود برنامه نویس ضعیف تری است، کدهای خود را بهتر توضیح می دهد اما در زبان های دیگر به جز پایتون کوتاهی می کند.
کلود همچنین “توهم” را حل نمی کند، یک مشکل قدیمی در سیستم های هوش مصنوعی مانند ChatGPT که در آن هوش مصنوعی جملات ناسازگار و اشتباهی را می نویسد.
التون توانست کلود را ترغیب کند تا نامی برای یک ماده شیمیایی اختراع کند که وجود ندارد و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند.
در اینجا متوجه توهم شدم، و نامی برای یک ماده شیمیایی اختراع کردم که وجود ندارد (البته ترکیبی با نام نزدیک پیدا کردم که وجود دارد) pic.twitter.com/QV6bKVXSZ3
— دن التون (@moreisdifferent) 7 ژانویه ۲۰۲۳
پس غذای آماده چیست؟ با قضاوت بر اساس گزارشهای دست دوم، کلود در برخی زمینهها، بهویژه طنز، به لطف رویکرد «هوش مصنوعی قانونی»، کمی بهتر از ChatGPT است. اما اگر محدودیتها وجود داشته باشد، زبان و گفتوگو به دور از یک چالش حلشده در هوش مصنوعی است.
به جز آزمایش خودمان، برخی از سؤالات درباره کلود بیپاسخ باقی میمانند، مانند اینکه آیا این اطلاعات اطلاعات را باز میگرداند – درست و نادرست، و شامل دیدگاههای نژادپرستانه و جنسیتگرایانه آشکار – به همان اندازه که ChatGPT روی آن آموزش داده شده است.
با این فرض، بعید است که کلود پلتفرمها و سازمانها را از سیاستهای محدودکننده کنونی آنها در مدلهای زبانی تغییر دهد.
سایت برنامهنویسی پرسش و پاسخ Stack Overflow به دلیل نگرانیهای مربوط به صحت واقعی، پاسخهای تولید شده توسط ChatGPT را به طور موقت ممنوع کرده است.
کنفرانس بینالمللی یادگیری ماشین ممنوعیت مقالات علمی حاوی متن تولید شده توسط سیستمهای هوش مصنوعی را به دلیل ترس از «عواقب پیشبینی نشده» اعلام کرد. و مدارس دولتی شهر نیویورک دسترسی به ChatGPT را تا حدی به دلیل نگرانی از سرقت ادبی، تقلب و اطلاعات نادرست عمومی محدود کردند.
Anthropic می گوید که قصد دارد کلود را اصلاح کند و به طور بالقوه نسخه بتا را برای افراد بیشتری در خط تولید باز کند. امیدواریم که این اتفاق بیفتد – و منجر به بهبودهای ملموس تر و قابل اندازه گیری شود.