» هوش مصنوعی » از مدل‌های زبانی بزرگ تا خطاهای توهمی: راهنمایی ساده و کاربردی برای آشنایی با اصطلاحات رایج هوش مصنوعی
واژه نامه هوش مصنوعی
هوش مصنوعی

از مدل‌های زبانی بزرگ تا خطاهای توهمی: راهنمایی ساده و کاربردی برای آشنایی با اصطلاحات رایج هوش مصنوعی

خرداد 5, 1404 1۰13

به گزارش اپ خونه، هوش مصنوعی دنیایی عمیق و پیچیده است. دانشمندانی که در این حوزه کار می‌کنند، اغلب برای توضیح پروژه‌هایشان از اصطلاحات تخصصی و فنی استفاده می‌کنند. به همین دلیل، ما هم مجبوریم در پوشش اخبار صنعت هوش مصنوعی از همین اصطلاحات استفاده کنیم.

به همین خاطر، تصمیم گرفتیم یک واژه‌نامه تهیه کنیم که شامل تعاریف مهم‌ترین واژه‌ها و عباراتی باشد که در مقالات‌مان استفاده می‌کنیم.

مطمئنا این واژه‌نامه به طور منظم به‌روزرسانی خواهد شد و اصطلاحات جدید اضافه میشود؛ چرا که محققان دائماً روش‌های نوینی برای گسترش مرزهای هوش مصنوعی کشف می‌کنند و در عین حال با خطرات نوظهور امنیتی نیز مواجه می‌شوند.

AGI

AGI

هوش عمومی مصنوعی یا AGI، اصطلاحی مبهم است. اما به‌طور کلی به نوعی از هوش مصنوعی اشاره دارد که از انسان معمولی در بسیاری از کارها (اگر نه در همه) توانمندتر است.

سم آلتمن، مدیرعامل OpenAI، اخیراً AGI را این‌گونه توصیف کرده: «معادل یک انسان متوسط که می‌توانید به عنوان همکار استخدام کنید.»

OpenAI نیز AGI را «سیستم‌هایی بسیار خودمختار که در اغلب کارهای اقتصادی مهم از انسان‌ها بهتر عمل می‌کنند» تعریف کرده است.

تعریف DeepMind از AGI کمی متفاوت است: آن‌ها آن را «هوش مصنوعی‌ای می‌دانند که حداقل به اندازه انسان‌ها در اغلب کارهای شناختی توانمند باشد.» گیج شدی؟ نگران نباش — حتی متخصصانی که در خط مقدم تحقیقاتی این حوزه هستند هم همین حس را دارند.

عامل هوش مصنوعی (AI Agent)

AI Agent

یک عامل هوش مصنوعی به ابزاری گفته می‌شود که از فناوری‌های هوش مصنوعی برای انجام یک سری از کارها به نمایندگی از شما استفاده می‌کند — کاری فراتر از یک چت‌بات ساده — مثل ثبت هزینه‌ها، رزرو بلیط یا میز در رستوران، یا حتی نوشتن و نگهداری کد.

البته همان‌طور که قبلاً توضیح دادیم، این حوزه هنوز در حال رشد است و اصطلاح «عامل هوش مصنوعی» ممکن است برای افراد مختلف معانی مختلفی داشته باشد.

زیرساخت‌های لازم برای تحقق کامل این مفهوم نیز هنوز در حال توسعه هستند. اما مفهوم پایه آن به سیستمی خودمختار اشاره دارد که می‌تواند از چندین سیستم هوش مصنوعی برای انجام کارهای چندمرحله‌ای استفاده کند.

زنجیره تفکر (Chain of Thought)

Chain-of-Thought

برای پاسخ به یک سوال ساده، مغز انسان می‌تواند بدون تفکر عمیق پاسخ دهد — مثل اینکه «کدام حیوان بلندتر است، زرافه یا گربه؟» اما در برخی موارد، برای رسیدن به جواب درست، به کاغذ و قلم نیاز دارید چون باید مراحل میانی را طی کنید.

مثلاً اگر کشاورزی مرغ و گاو داشته باشد و در مجموع ۴۰ سر و ۱۲۰ پا داشته باشند، باید معادله‌ای بنویسید تا بفهمید چند مرغ و چند گاو دارد (۲۰ مرغ و ۲۰ گاو).

در زمینه هوش مصنوعی، «زنجیره تفکر» به معنای شکستن یک مسئله به مراحل کوچک‌تر برای بهبود کیفیت پاسخ نهایی است.

معمولاً رسیدن به پاسخ در این مدل‌ها بیشتر طول می‌کشد، اما دقت پاسخ، به‌خصوص در مسائل منطقی یا کدنویسی، بیشتر است. این مدل‌ها از مدل‌های زبان بزرگ منشأ گرفته‌اند و با استفاده از یادگیری تقویتی برای تفکر مرحله‌به‌مرحله بهینه‌سازی شده‌اند.

یادگیری عمیق (Deep Learning)

Deep Learning

زیرمجموعه‌ای از یادگیری ماشین که در آن الگوریتم‌های هوش مصنوعی با ساختاری چندلایه و مشابه شبکه‌های عصبی مصنوعی طراحی می‌شوند.

این ساختار به آن‌ها اجازه می‌دهد روابط پیچیده‌تری نسبت به مدل‌های ساده‌تر مانند مدل‌های خطی یا درخت تصمیم بگیرند. الگوریتم‌های یادگیری عمیق از مسیرهای به‌هم‌پیوسته نورون‌های مغز انسان الهام گرفته‌اند.

مدل‌های یادگیری عمیق قادرند ویژگی‌های مهم را خودشان از داده‌ها استخراج کنند و نیازی به تعریف دستی توسط مهندسان ندارند.

این مدل‌ها همچنین می‌توانند از اشتباهات یاد بگیرند و با تکرار و تنظیم خود، خروجی‌شان را بهبود دهند. البته یادگیری عمیق به حجم زیادی از داده نیاز دارد (میلیون‌ها مورد یا بیشتر) و معمولاً زمان آموزش بیشتری نسبت به الگوریتم‌های ساده‌تر نیاز دارد — بنابراین هزینه توسعه هم بیشتر است.

انتشار (Diffusion)

انتشار

«انتشار» تکنولوژی‌ای است که در قلب بسیاری از مدل‌های هوش مصنوعی تولیدکننده هنر، موسیقی و متن قرار دارد.

از فیزیک الهام گرفته شده و در آن سیستم با افزودن نویز، ساختار داده‌ها مثل عکس یا صدا را «تخریب» می‌کند تا چیزی از آن باقی نماند.

در فیزیک، انتشار خودبه‌خود و غیرقابل بازگشت است — مثلاً قند حل‌شده در قهوه دیگر به قالب مکعبی برنمی‌گردد. اما در هوش مصنوعی، سیستم‌های انتشار تلاش می‌کنند فرآیند «انتشار معکوس» را بیاموزند تا داده‌های از دست‌رفته را بازسازی کنند.

Distillation

تقطیر

Distillation که معنای فارسی آن تقطیر است روشی است برای استخراج دانش از یک مدل بزرگ با استفاده از یک مدل معلم-دانش‌آموز.

توسعه‌دهندگان پرسش‌هایی را به مدل معلم می‌فرستند و پاسخ‌های آن را ثبت می‌کنند. این پاسخ‌ها گاهی با دیتاست (Dataset) مقایسه می‌شود تا دقت آن‌ها بررسی شود. سپس همین خروجی‌ها برای آموزش مدل دانش‌آموز استفاده می‌شود تا رفتاری مشابه معلم پیدا کند.

Distillation برای ساخت نسخه کوچک‌تر و بهینه‌تر از یک مدل بزرگ با حداقل کاهش کیفیت به کار می‌رود. احتمالاً OpenAI از این روش برای ساخت GPT-4 Turbo استفاده کرده است — نسخه سریع‌تر GPT-4.

همه شرکت‌های هوش مصنوعی از Distillation به صورت داخلی استفاده می‌کنند، اما گاهی ممکن است برای رسیدن به مدل‌های پیشرفته رقیب، برخی شرکت‌ها این روش را خلاف قوانین API استفاده کرده باشند.

تنظیم دقیق (Fine-tuning)

تنظیم دقیق

تنظیم دقیق به فرآیند آموزش مجدد یک مدل هوش مصنوعی از پیش آموزش‌دیده (پیش‌مدل) اطلاق می‌شود که با هدف بهینه‌سازی عملکرد آن در یک وظیفه خاص‌تر یا در یک دامنه کاربردی محدودتر انجام می‌گیرد.

این فرآیند معمولاً با استفاده از داده‌هایی انجام می‌شود که تخصصی‌تر، مرتبط‌تر و محدودتر از داده‌های مورد استفاده در آموزش اولیه هستند.

در چارچوب توسعه مدل‌های زبانی بزرگ (LLMs)، بسیاری از شرکت‌ها و استارتاپ‌های فعال در حوزه هوش مصنوعی از مدل‌های عمومی و متن‌باز به عنوان نقطه آغاز بهره می‌برند.

آن‌ها سپس با افزودن داده‌های اختصاصی مربوط به صنعت، بازار هدف یا کاربری خاص خود—نظیر مکالمات مشتری، مستندات فنی، یا منابع زبانی بومی—مدل را مورد تنظیم دقیق قرار می‌دهند تا عملکرد آن در زمینه مورد نظر به شکل قابل‌توجهی بهبود یابد.

تنظیم دقیق می‌تواند دقت، ارتباط معنایی، و انطباق مدل با نیازهای خاص یک پروژه یا محصول تجاری را افزایش دهد، بدون آنکه نیاز به آموزش مدل از صفر باشد؛ بنابراین، این روش رویکردی مقرون‌به‌صرفه و مؤثر برای توسعه کاربردهای سفارشی مبتنی بر هوش مصنوعی محسوب می‌شود.

شبکه تولیدی خصمانه (GAN)

GAN

GAN یا Generative Adversarial Network نوعی چارچوب یادگیری ماشین است که برخی از پیشرفت‌های مهم در تولید داده واقعی توسط AI، مثل ابزارهای دیپ‌فیک، را ممکن ساخته است.

GAN شامل دو شبکه عصبی است. یکی از آن‌ها بر اساس داده‌های آموزشی خروجی تولید می‌کند، و دیگری (مدل متمایزکننده) خروجی را ارزیابی می‌کند.

این دو مدل در رقابت با یکدیگرند (به همین خاطر به آن “خصمانه” گفته می‌شود): مدل تولیدکننده تلاش می‌کند خروجی‌اش را از دید متمایزکننده پنهان کند، در حالی که مدل متمایزکننده سعی دارد داده جعلی را تشخیص دهد.

این رقابت باعث بهبود خروجی‌ها می‌شود. البته GANها بیشتر برای کاربردهای خاص (مثل تولید عکس یا ویدیوهای واقعی) مناسب‌اند تا کاربردهای عمومی.

توهم (Hallucination)

AI Hallucinations

«توهم» اصطلاحی است که در صنعت AI برای اشاره به زمانی به کار می‌رود که مدل‌های هوش مصنوعی اطلاعات نادرست تولید می‌کنند — یعنی عملاً «چیزی را از خودشان در‌می‌آورند». این مسئله یکی از مشکلات اساسی کیفیت AI است.

توهم می‌تواند خروجی‌هایی تولید کند که گمراه‌کننده و حتی خطرناک باشند — مثلاً در پاسخ به سوالات پزشکی.

به همین دلیل اکثر ابزارهای GenAI در بخش شرایط استفاده به کاربران هشدار می‌دهند که پاسخ‌های تولیدشده را بررسی کنند، هرچند این هشدارها معمولاً خیلی کمتر از پاسخ‌های خودکار به چشم می‌آیند.

مشکل توهم اغلب به دلیل کمبود داده‌های آموزشی رخ می‌دهد. به‌ویژه در مدل‌های عمومی و بنیادی که به همه نوع پرسشی باید پاسخ دهند، این مشکل سخت‌تر حل می‌شود. خلاصه اینکه: هنوز خدا اختراع نشده!

این مشکل باعث شده تمایل به مدل‌های تخصصی یا عمودی بیشتر شود — یعنی مدل‌هایی با حوزه اطلاعات محدودتر اما دقیق‌تر، برای کاهش ریسک اطلاعات نادرست.

استنتاج (Inference)

Inference

استنتاج به فرآیند اجرای مدل AI گفته می‌شود. یعنی زمانی که مدل پس از آموزش، برای پیش‌بینی یا نتیجه‌گیری از داده‌هایی که قبلاً دیده استفاده می‌شود.

به‌عبارتی، استنتاج بدون آموزش ممکن نیست؛ مدل باید الگوهای داده را یاد بگیرد تا بتواند به درستی پیش‌بینی کند.

انواع مختلفی از سخت‌افزارها می‌توانند استنتاج را انجام دهند — از پردازنده‌های گوشی گرفته تا کارت‌های گرافیک قدرتمند یا شتاب‌دهنده‌های تخصصی AI.

اما همه آن‌ها عملکرد یکسانی ندارند. مدل‌های بزرگ ممکن است روی لپ‌تاپ به کندی اجرا شوند، در حالی که در سرورهای ابری با چیپ‌های پیشرفته خیلی سریع‌تر عمل می‌کنند.

مدل زبان بزرگ (LLM)

1. Demystifying Large Language Models (LLMs): Unlocking the Power of AI for  Language Processing | by Yennhi95zz | Medium

مدل‌های زبان بزرگ یا LLM، مدل‌هایی هستند که توسط دستیارهای محبوب هوش مصنوعی مانند ChatGPT، Claude، Gemini گوگل، LLaMA متا، Copilot مایکروسافت یا Le Chat میسترال استفاده می‌شوند.

وقتی با این دستیارها چت می‌کنید، در واقع با یک LLM در تعامل هستید که درخواست شما را مستقیماً یا با کمک ابزارهای جانبی مثل مرورگر وب یا مفسر کد پردازش می‌کند.

مدل‌های LLM شبکه‌های عصبی عمیقی هستند که از میلیاردها پارامتر عددی ساخته شده‌اند و روابط میان کلمات و عبارات را یاد می‌گیرند تا نوعی نقشه چندبعدی از زبان بسازند.

این مدل‌ها با تحلیل الگوهایی در میلیاردها کتاب، مقاله و متن آموزش دیده‌اند. وقتی به یک LLM درخواست می‌دهید، مدلی تولید می‌شود که محتمل‌ترین الگو را ادامه می‌دهد — با پیش‌بینی محتمل‌ترین واژه بعدی نسبت به واژه قبلی. این فرآیند بارها و بارها تکرار می‌شود.

شبکه عصبی (Neural Network)

Neural Networks |

شبکه عصبی به ساختار الگوریتمی چندلایه‌ای گفته می‌شود که زیرساخت اصلی یادگیری عمیق — و در مقیاس گسترده‌تر، رشد ابزارهای GenAI — است.

ایده استفاده از ساختار مغز انسان برای الگوریتم‌های داده‌پردازی از دهه ۱۹۴۰ مطرح بوده، اما ظهور کارت‌های گرافیکی قدرتمند (GPU) — که ابتدا در صنعت بازی ویدئویی گسترش یافت — این امکان را فراهم کرد تا الگوریتم‌ها بتوانند با لایه‌های بیشتر و عملکرد بهتر آموزش ببینند. این ساختار در حوزه‌هایی مانند تشخیص صدا، ناوبری خودران و کشف دارو کاربرد دارد.

آموزش (Training)

Training

آموزش یا تربیت مدل‌های یادگیری ماشین، فرآیندی است که در آن داده به مدل داده می‌شود تا الگوهای آن را بیاموزد و خروجی‌های مفید تولید کند.

پیش از آموزش، ساختار ریاضی مدل صرفاً مجموعه‌ای از لایه‌ها و اعداد تصادفی است. فقط با آموزش است که مدل شکل می‌گیرد و می‌تواند بر اساس ویژگی‌های داده، خروجی خود را به سمت هدفی مشخص تنظیم کند — مثل تشخیص تصویر گربه یا سرودن هایکو.

توجه داشته باشید که همه AIها نیاز به آموزش ندارند. مدل‌های مبتنی بر قواعد (rules-based) می‌توانند بدون آموزش صرفاً طبق برنامه اجرا شوند.

یادگیری انتقالی (Transfer Learning)

Transfer Learning

یادگیری انتقالی روشی است که در آن از یک مدل هوش مصنوعی که قبلاً آموزش دیده به‌عنوان نقطه شروع برای توسعه یک مدل جدید برای یک وظیفه متفاوت اما معمولاً مرتبط استفاده می‌شود — این کار باعث می‌شود دانشی که در مراحل قبلی آموزش به‌دست آمده، دوباره مورد استفاده قرار گیرد.

این تکنیک می‌تواند باعث صرفه‌جویی در زمان و منابع شود، چون فرآیند توسعه مدل را کوتاه‌تر می‌کند. همچنین، وقتی داده‌های مربوط به وظیفه‌ی مورد نظر محدود باشند، یادگیری انتقالی می‌تواند بسیار مفید واقع شود.

اما باید توجه داشت که این رویکرد محدودیت‌هایی هم دارد. مدل‌هایی که برای کسب توانایی‌های عمومی به یادگیری انتقالی متکی هستند، احتمالاً برای عملکرد مناسب در حوزه‌ی خاص خود، به آموزش با داده‌های تکمیلی نیاز خواهند داشت.

(رجوع شود به: تنظیم دقیق – Fine tuning)

وزن‌ها (Weights)

وزن‌ها نقش کلیدی در آموزش هوش مصنوعی دارند، چرا که مشخص می‌کنند چه میزان اهمیت (یا «وزن») به ویژگی‌ها یا متغیرهای ورودی مختلف در داده‌های آموزشی داده شود — و در نهایت خروجی مدل را شکل می‌دهند.

به بیانی دیگر، وزن‌ها پارامترهای عددی‌ای هستند که تعیین می‌کنند در یک مجموعه داده، چه چیزی برای وظیفه‌ی آموزشی مشخص مهم‌تر است. این وزن‌ها با ضرب شدن در ورودی‌ها، تاثیر خود را اعمال می‌کنند.

فرآیند آموزش مدل معمولاً با وزن‌هایی شروع می‌شود که به‌صورت تصادفی تعیین شده‌اند، اما در طول آموزش، این وزن‌ها تغییر می‌کنند تا مدل بتواند به خروجی‌ای نزدیک به هدف برسد.

برای مثال، مدلی از هوش مصنوعی که برای پیش‌بینی قیمت خانه‌ها آموزش دیده و از داده‌های تاریخی بازار مسکن در یک منطقه خاص استفاده می‌کند، ممکن است وزن‌هایی برای ویژگی‌هایی مانند تعداد اتاق‌خواب و حمام، مستقل یا نیمه‌مستقل بودن ملک، داشتن پارکینگ، گاراژ و موارد مشابه در نظر بگیرد.

در نهایت، وزن‌هایی که مدل به هر یک از این ویژگی‌ها اختصاص می‌دهد، نشان‌دهنده‌ی میزان تأثیر آن ویژگی بر ارزش ملک است — بر اساس داده‌هایی که مدل با آن آموزش دیده است.

==============================================================

در پایان، امید داریم این واژه‌نامه بتواند به عنوان مرجعی ساده و کاربردی، درک مفاهیم پیچیده و تخصصی حوزه هوش مصنوعی را برای خوانندگان تسهیل کند. در جهانی که فناوری با شتابی بی‌سابقه در حال پیشرفت است، آشنایی با زبان مشترک این تحولات، نخستین گام برای همراهی مؤثر با آن‌هاست.

به این نوشته امتیاز بدهید!

گروه نویسندگان

دیدگاهتان را بنویسید

  • ×