آیا مدل های هوش مصنوعی محکوم به این هستند که همیشه توهم داشته باشند؟
به گزارش اپ خونه، مدلهای زبان بزرگ (LLM) مانند ChatGPT OpenAI همگی از یک مشکل رنج میبرند: آنها چیزهایی را از خودشان میسازند.
این اشتباهات عجیب و غریب و بی ضرر – مانند ادعای انتقال پل گلدن گیت به سراسر مصر در سال ۲۰۱۶ – می تواند بسیار مشکل ساز و حتی خطرناک باشد.
اخیراً یک شهردار در استرالیا تهدید کرد که از OpenAI شکایت می کند زیرا ChatGPT به اشتباه ادعا کرد که او در یک رسوایی بزرگ رشوه اعتراف کرده است.
محققان دریافتهاند که توهمات LLM میتوانند برای توزیع بستههای کد مخرب بین توسعهدهندگان نرمافزاری ناآگاه مورد سوء استفاده قرار گیرند و LLM ها اغلب توصیه های اشتباهی برای سلامت روان و فیزیکی می دهند، مانند اینکه مصرف شراب می تواند از سرطان جلوگیری کند.
این تمایل به ابداع “حقایق” پدیده ای است که به عنوان توهم شناخته می شود، و به همین دلیل است که LLM های امروزی – و همه مدل های مولد هوش مصنوعی – توسعه یافته و آموزش داده می شوند.
مدل های آموزشی
مدلهای هوش مصنوعی مولد هیچ هوش واقعی ندارند – آنها سیستمهای آماری هستند که کلمات، تصاویر، گفتار، موسیقی یا سایر دادهها را پیشبینی میکنند .
مدلهای هوش مصنوعی با تعداد زیادی مثال، که معمولاً از وب عمومی منبع میشوند، میآموزند که چقدر احتمال دارد دادهها براساس الگوها، از جمله زمینه هر داده اطراف، رخ دهد.
سباستین برنز، دکتری محققان دانشگاه کوئین مری لندن در یک مصاحبه ایمیلی گفت:
“چارچوب فعلی آموزش LLM شامل پنهان کردن، یا پوشاندن کلمات قبلی برای زمینه است و داشتن مدلی که پیشبینی میکند کدام کلمات باید جایگزین کلمات پنهان شوند، این از نظر مفهومی شبیه استفاده از متن پیشبینیکننده در iOS و فشار دادن مداوم یکی از کلمات پیشنهادی بعدی است.”
این رویکرد مبتنی بر احتمال در مقیاس در بیشتر موارد بسیار خوب کار می کند اما در حالی که دامنه کلمات و احتمالات آنها احتمالاً منجر به متنی می شود که منطقی باشد، هنوز قطعی نیست.
به عنوان مثال، LLM ها می توانند چیزی را ایجاد کنند که از نظر گرامری درست است اما بی معنی است.
یا میتوانند نادرستیها را منتشر کنند و در دادههای آموزشی خود نادرستی را منتشر کنند. یا می توانند منابع اطلاعاتی مختلف، از جمله منابع تخیلی را با هم ترکیب کنند، حتی اگر آن منابع به وضوح با یکدیگر در تضاد باشند.
از طرف LLM ها مخرب نیست. آنها سوء نیت ندارند و مفاهیم درست و نادرست برای آنها بی معنی است. آنها به سادگی یاد گرفته اند که کلمات یا عبارات خاصی را با مفاهیم خاصی مرتبط کنند، حتی اگر این تداعی ها دقیق نباشند.
برنز گفت:
« توهمات به ناتوانی یک LLM در تخمین عدم قطعیت پیش بینی خود مرتبط است. یک LLM معمولاً طوری آموزش داده میشود که همیشه یک خروجی تولید کند، حتی زمانی که ورودی بسیار متفاوت از دادههای آموزشی است. یک LLM استاندارد هیچ راهی برای دانستن اینکه آیا قادر به پاسخگویی قابل اعتماد به یک پرس و جو یا انجام یک پیش بینی است، ندارد.»
توهم هوش مصنوعی قابل حل است؟
سوال اینجاست که آیا توهم قابل حل است؟ بستگی به این دارد که منظور شما از “حل شده” چیست.
وو ها، محقق و مهندس کاربردی در موسسه آلن برای هوش مصنوعی، اظهار می دارد که LLM ها “همیشه توهم دارند و خواهند داشت.”
اما او همچنین بر این باور است که بسته به نحوه آموزش و به کارگیری یک LLM، راه های مشخصی برای کاهش این توهم – البته نه از بین بردن – وجود دارد.
وو ها از طریق ایمیل گفت:
«یک سیستم پاسخگویی به سؤال را در نظر بگیرید. میتوان آن را مهندسی کرد تا با تنظیم یک پایگاه دانش با کیفیت بالا از پرسشها و پاسخها، و اتصال این پایگاه دانش با یک LLM برای ارائه پاسخهای دقیق از طریق فرآیندی شبیه به بازیابی،ارائه شود.»
وو ها تفاوت بین یک LLM با پایگاه دانش کیفیت بالا برای استفاده از آن در مقابل یک با مدیریت داده های کمتر دقیق را نشان داد.
او این سوال را مطرح کرد که “نویسندگان مقاله Toolformer چه کسانی هستند؟”. (Toolformer یک مدل هوش مصنوعی است که توسط متا آموزش داده شده است) سوال از طریق Bing Chat مایکروسافت با پشتیبانی از LLM و Bard Google پرسیده شد.
Bing Chat به درستی تمام هشت نویسنده متا را فهرست کرد، در حالی که Bard مقاله را به اشتباه به محققان گوگل و Hugging Face نسبت داد.
هر سیستم مبتنی بر LLM مستقر شده توهم خواهد داشت. سوال واقعی این است که آیا مزایای آن بیشتر از پیامد منفی ناشی از توهم است یا خیر.
به عبارت دیگر، اگر هیچ آسیب آشکاری توسط یک مدل هوش مصنوعی وارد نشده باشد – مثلاً مدل هر چند وقت یکبار تاریخ یا نامش اشتباه میشود – اما در غیر این صورت مفید باشد، پس ممکن است ارزش استفاده را داشته باشد.
او افزود: «مسئله به حداکثر رساندن کاربرد مورد انتظار هوش مصنوعی است.»
برنز به تکنیک دیگری اشاره کرد که با موفقیت برای کاهش توهمات در LLMها استفاده شده است: یادگیری تقویتی از بازخورد انسانی (RLHF).
RLHF که توسط OpenAI در سال ۲۰۱۷ معرفی شد، شامل آموزش یک LLM، سپس جمع آوری اطلاعات اضافی برای آموزش یک مدل پاداش و تنظیم دقیق LLM با مدل پاداش از طریق یادگیری تقویتی است .
در RLHF، مجموعه ای از دستورات از یک مجموعه داده از پیش تعریف شده از طریق یک LLM برای تولید متن جدید ارسال می شود. سپس، حاشیهنویسهای انسانی برای رتبهبندی خروجیهای LLM از نظر مفید بودن کلی آنها استفاده میشود – دادههایی که برای آموزش مدل پاداش استفاده میشوند.
مدل پاداش، که در این مرحله میتواند هر متنی را دریافت کند و به آن نمرهای از میزان درک انسان از آن اختصاص دهد، سپس برای تنظیم دقیق پاسخهای تولید شده توسط LLM استفاده میشود.
OpenAI از RLHF برای آموزش چندین مدل از جمله GPT-4 استفاده کرد . برنز هشدار داد، که حتی RLHF نیز کامل نیست.
برنز گفت:
“من معتقدم فضای احتمالات برای همسو کردن کامل LLMها با RLHF بسیار بزرگ است. کاری که اغلب در تنظیمات RLHF انجام میشود، آموزش یک مدل برای تولید یک پاسخ «نمیدانم» [به یک سؤال پیچیده] است، در درجه اول با تکیه بر دانش حوزه انسانی و امیدواریم که مدل آن را به دانش دامنه خود تعمیم دهد. اغلب این کار را میکند، اما ممکن است کمی سخت باشد.”
فلسفه های جایگزین
با فرض اینکه توهم قابل حل نباشد، حداقل با LLM های امروزی، آیا این چیز بدی است؟ برنز اینطور فکر نمی کند، در واقع او معتقد است که مدلهای توهمآمیز میتوانند با عمل کردن به عنوان یک «شریک خلاق» خلاقیت را تقویت کنند – خروجیهایی را ارائه میدهند که ممکن است کاملاً واقعی نباشند، اما با این وجود دارای رشتههای مفیدی برای پی بردن هستند. استفاده خلاقانه از توهم می تواند نتایج یا ترکیبی از ایده ها را ایجاد کند که ممکن است برای اکثر مردم پیش نیاید.
او گفت:
«اگر اظهارات تولید شده از نظر واقعی نادرست باشند یا هر گونه ارزش کلی انسانی، اجتماعی یا فرهنگی خاص را نقض کنند – در سناریوهایی که یک فرد برای متخصص بودن به LLM تکیه می کند، توهمات یک مشکل است.
اما در کارهای خلاقانه یا هنری، توانایی دستیابی به خروجی های غیرمنتظره می تواند ارزشمند باشد. یک گیرنده انسانی ممکن است از پاسخ به یک پرسش غافلگیر شود و بنابراین به سمتی خاص از افکار سوق داده شود که ممکن است به پیوند بدیع ایده ها منجر شود.»
وو هاا استدلال میکرد که LLMهای امروزی با استانداردهای غیرمنطقی رعایت میشوند – ما انسانها نیز وقتی حقیقت را اشتباه به خاطر میآوریم یا بهطور غیرقانونی بیان میکنیم دچار «توهم» می شویم.
اما با LLM، او معتقد است که ما یک ناهماهنگی شناختی را تجربه میکنیم، زیرا مدلها خروجیهایی تولید میکنند که در ظاهر خوب به نظر میرسند اما پس از بررسی بیشتر حاوی خطا هستند.
او گفت: «به عبارت ساده، LLM ها، درست مانند هر تکنیک هوش مصنوعی، ناقص هستند و در نتیجه اشتباه می کنند. به طور سنتی، ما با اشتباه کردن سیستم های هوش مصنوعی موافق هستیم، زیرا نقص ها را می پذیریم. »
در واقع، پاسخ ممکن است در نحوه عملکرد مدلهای هوش مصنوعی مولد در سطح فنی نباشد.