هوش مصنوعی

آیا مدل های هوش مصنوعی محکوم به این هستند که همیشه توهم داشته باشند؟

به گزارش اپ خونه، مدل‌های زبان بزرگ (LLM) مانند ChatGPT OpenAI همگی از یک مشکل رنج می‌برند: آنها چیزهایی را از خودشان می‌سازند.

این اشتباهات عجیب و غریب و بی ضرر – مانند ادعای انتقال پل گلدن گیت به سراسر مصر در سال ۲۰۱۶ – می تواند بسیار مشکل ساز و حتی خطرناک باشد.

اخیراً یک شهردار در استرالیا تهدید کرد که از OpenAI شکایت می کند زیرا ChatGPT به اشتباه ادعا کرد که او در یک رسوایی بزرگ رشوه اعتراف کرده است.

محققان دریافته‌اند که توهمات LLM می‌توانند برای توزیع بسته‌های کد مخرب بین توسعه‌دهندگان نرم‌افزاری ناآگاه مورد سوء استفاده قرار گیرند و LLM ها اغلب توصیه های اشتباهی برای سلامت روان و فیزیکی می دهند، مانند اینکه مصرف شراب می تواند از سرطان جلوگیری کند.

این تمایل به ابداع “حقایق” پدیده ای است که به عنوان توهم شناخته می شود، و به همین دلیل است که LLM های امروزی – و همه مدل های مولد هوش مصنوعی – توسعه یافته و آموزش داده می شوند.

مدل های آموزشی

مدل‌های هوش مصنوعی مولد هیچ هوش واقعی ندارند – آنها سیستم‌های آماری هستند که کلمات، تصاویر، گفتار، موسیقی یا سایر داده‌ها را پیش‌بینی می‌کنند .

مدل‌های هوش مصنوعی با تعداد زیادی مثال، که معمولاً از وب عمومی منبع می‌شوند، می‌آموزند که چقدر احتمال دارد داده‌ها براساس الگوها، از جمله زمینه هر داده اطراف، رخ دهد.

سباستین برنز، دکتری محققان دانشگاه کوئین مری لندن در یک مصاحبه ایمیلی گفت:

“چارچوب فعلی آموزش LLM شامل پنهان کردن، یا پوشاندن کلمات قبلی برای زمینه است و داشتن مدلی که پیش‌بینی می‌کند کدام کلمات باید جایگزین کلمات پنهان شوند،  این از نظر مفهومی شبیه استفاده از متن پیش‌بینی‌کننده در iOS و فشار دادن مداوم یکی از کلمات پیشنهادی بعدی است.”

این رویکرد مبتنی بر احتمال در مقیاس در بیشتر موارد بسیار خوب کار می کند اما در حالی که دامنه کلمات و احتمالات آنها احتمالاً منجر به متنی می شود که منطقی باشد، هنوز قطعی نیست.

به عنوان مثال، LLM ها می توانند چیزی را ایجاد کنند که از نظر گرامری درست است اما بی معنی است.

یا می‌توانند نادرستی‌ها را منتشر کنند و در داده‌های آموزشی خود نادرستی را منتشر کنند. یا می توانند منابع اطلاعاتی مختلف، از جمله منابع تخیلی را با هم ترکیب کنند، حتی اگر آن منابع به وضوح با یکدیگر در تضاد باشند.

از طرف LLM ها مخرب نیست. آنها سوء نیت ندارند و مفاهیم درست و نادرست برای آنها بی معنی است. آنها به سادگی یاد گرفته اند که کلمات یا عبارات خاصی را با مفاهیم خاصی مرتبط کنند، حتی اگر این تداعی ها دقیق نباشند.

برنز گفت:

« توهمات به ناتوانی یک LLM در تخمین عدم قطعیت پیش بینی خود مرتبط است. یک LLM معمولاً طوری آموزش داده می‌شود که همیشه یک خروجی تولید کند، حتی زمانی که ورودی بسیار متفاوت از داده‌های آموزشی است. یک LLM استاندارد هیچ راهی برای دانستن اینکه آیا قادر به پاسخگویی قابل اعتماد به یک پرس و جو یا انجام یک پیش بینی است، ندارد.»

توهم هوش مصنوعی قابل حل است؟

سوال اینجاست که آیا توهم قابل حل است؟ بستگی به این دارد که منظور شما از “حل شده” چیست.

وو ها، محقق و مهندس کاربردی در موسسه آلن برای هوش مصنوعی، اظهار می دارد که LLM ها “همیشه توهم دارند و خواهند داشت.”

اما او همچنین بر این باور است که بسته به نحوه آموزش و به کارگیری یک LLM، راه های مشخصی برای کاهش این توهم – البته نه از بین بردن – وجود دارد.

وو ها از طریق ایمیل گفت:

«یک سیستم پاسخگویی به سؤال را در نظر بگیرید. می‌توان آن را مهندسی کرد تا با تنظیم یک پایگاه دانش با کیفیت بالا از پرسش‌ها و پاسخ‌ها، و اتصال این پایگاه دانش با یک LLM برای ارائه پاسخ‌های دقیق از طریق فرآیندی شبیه به بازیابی،ارائه شود.»

وو ها تفاوت بین یک LLM با پایگاه دانش کیفیت بالا برای استفاده از آن در مقابل یک با مدیریت داده های کمتر دقیق را نشان داد.

او این سوال را مطرح کرد که “نویسندگان مقاله Toolformer چه کسانی هستند؟”. (Toolformer یک مدل هوش مصنوعی است که توسط متا آموزش داده شده است) سوال از طریق Bing Chat مایکروسافت با پشتیبانی از LLM و Bard Google پرسیده شد.

Bing Chat به درستی تمام هشت نویسنده متا را فهرست کرد، در حالی که Bard مقاله را به اشتباه به محققان گوگل و Hugging Face نسبت داد.

هر سیستم مبتنی بر LLM مستقر شده توهم خواهد داشت. سوال واقعی این است که آیا مزایای آن بیشتر از پیامد منفی ناشی از توهم است یا خیر.

به عبارت دیگر، اگر هیچ آسیب آشکاری توسط یک مدل هوش مصنوعی وارد نشده باشد – مثلاً مدل هر چند وقت یک‌بار تاریخ یا نامش اشتباه می‌شود – اما در غیر این صورت مفید باشد، پس ممکن است ارزش استفاده را داشته باشد.

او افزود: «مسئله به حداکثر رساندن کاربرد مورد انتظار هوش مصنوعی است.»

برنز به تکنیک دیگری اشاره کرد که با موفقیت برای کاهش توهمات در LLMها استفاده شده است: یادگیری تقویتی از بازخورد انسانی (RLHF).

RLHF که توسط OpenAI در سال ۲۰۱۷ معرفی شد، شامل آموزش یک LLM، سپس جمع آوری اطلاعات اضافی برای آموزش یک مدل پاداش و تنظیم دقیق LLM با مدل پاداش از طریق یادگیری تقویتی است .

در RLHF، مجموعه ای از دستورات از یک مجموعه داده از پیش تعریف شده از طریق یک LLM برای تولید متن جدید ارسال می شود. سپس، حاشیه‌نویس‌های انسانی برای رتبه‌بندی خروجی‌های LLM از نظر مفید بودن کلی آنها استفاده می‌شود – داده‌هایی که برای آموزش مدل پاداش استفاده می‌شوند.

مدل پاداش، که در این مرحله می‌تواند هر متنی را دریافت کند و به آن نمره‌ای از میزان درک انسان از آن اختصاص دهد، سپس برای تنظیم دقیق پاسخ‌های تولید شده توسط LLM استفاده می‌شود.

OpenAI از RLHF برای آموزش چندین مدل از جمله GPT-4 استفاده کرد . برنز هشدار داد، که حتی RLHF نیز کامل نیست.

برنز گفت:

“من معتقدم فضای احتمالات برای همسو کردن کامل LLMها با RLHF بسیار بزرگ است. کاری که اغلب در تنظیمات RLHF انجام می‌شود، آموزش یک مدل برای تولید یک پاسخ «نمی‌دانم» [به یک سؤال پیچیده] است، در درجه اول با تکیه بر دانش حوزه انسانی و امیدواریم که مدل آن را به دانش دامنه خود تعمیم دهد. اغلب این کار را می‌کند، اما ممکن است کمی سخت باشد.”

فلسفه های جایگزین

با فرض اینکه توهم قابل حل نباشد، حداقل با LLM های امروزی، آیا این چیز بدی است؟ برنز اینطور فکر نمی کند، در واقع او معتقد است که مدل‌های توهم‌آمیز می‌توانند با عمل کردن به عنوان یک «شریک خلاق» خلاقیت را تقویت کنند – خروجی‌هایی را ارائه می‌دهند که ممکن است کاملاً واقعی نباشند، اما با این وجود دارای رشته‌های مفیدی برای پی بردن هستند. استفاده خلاقانه از توهم می تواند نتایج یا ترکیبی از ایده ها را ایجاد کند که ممکن است برای اکثر مردم پیش نیاید.

او گفت:

«اگر اظهارات تولید شده از نظر واقعی نادرست باشند یا هر گونه ارزش کلی انسانی، اجتماعی یا فرهنگی خاص را نقض کنند – در سناریوهایی که یک فرد برای متخصص بودن به LLM تکیه می کند، توهمات یک مشکل است.

اما در کارهای خلاقانه یا هنری، توانایی دستیابی به خروجی های غیرمنتظره می تواند ارزشمند باشد. یک گیرنده انسانی ممکن است از پاسخ به یک پرسش غافلگیر شود و بنابراین به سمتی خاص از افکار سوق داده شود که ممکن است به پیوند بدیع ایده ها منجر شود.»

وو هاا استدلال می‌کرد که LLMهای امروزی با استانداردهای غیرمنطقی رعایت می‌شوند – ما انسان‌ها نیز وقتی حقیقت را اشتباه به خاطر می‌آوریم یا به‌طور غیرقانونی بیان می‌کنیم دچار «توهم» می شویم.

اما با LLM، او معتقد است که ما یک ناهماهنگی شناختی را تجربه می‌کنیم، زیرا مدل‌ها خروجی‌هایی تولید می‌کنند که در ظاهر خوب به نظر می‌رسند اما پس از بررسی بیشتر حاوی خطا هستند.

او گفت: «به عبارت ساده، LLM ها، درست مانند هر تکنیک هوش مصنوعی، ناقص هستند و در نتیجه اشتباه می کنند. به طور سنتی، ما با اشتباه کردن سیستم های هوش مصنوعی موافق هستیم، زیرا نقص ها را می پذیریم. »

در واقع، پاسخ ممکن است در نحوه عملکرد مدل‌های هوش مصنوعی مولد در سطح فنی نباشد.

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا