از مدلهای زبانی بزرگ تا خطاهای توهمی: راهنمایی ساده و کاربردی برای آشنایی با اصطلاحات رایج هوش مصنوعی
به گزارش اپ خونه، هوش مصنوعی دنیایی عمیق و پیچیده است. دانشمندانی که در این حوزه کار میکنند، اغلب برای توضیح پروژههایشان از اصطلاحات تخصصی و فنی استفاده میکنند. به همین دلیل، ما هم مجبوریم در پوشش اخبار صنعت هوش مصنوعی از همین اصطلاحات استفاده کنیم.
به همین خاطر، تصمیم گرفتیم یک واژهنامه تهیه کنیم که شامل تعاریف مهمترین واژهها و عباراتی باشد که در مقالاتمان استفاده میکنیم.
مطمئنا این واژهنامه به طور منظم بهروزرسانی خواهد شد و اصطلاحات جدید اضافه میشود؛ چرا که محققان دائماً روشهای نوینی برای گسترش مرزهای هوش مصنوعی کشف میکنند و در عین حال با خطرات نوظهور امنیتی نیز مواجه میشوند.
AGI
هوش عمومی مصنوعی یا AGI، اصطلاحی مبهم است. اما بهطور کلی به نوعی از هوش مصنوعی اشاره دارد که از انسان معمولی در بسیاری از کارها (اگر نه در همه) توانمندتر است.
سم آلتمن، مدیرعامل OpenAI، اخیراً AGI را اینگونه توصیف کرده: «معادل یک انسان متوسط که میتوانید به عنوان همکار استخدام کنید.»
OpenAI نیز AGI را «سیستمهایی بسیار خودمختار که در اغلب کارهای اقتصادی مهم از انسانها بهتر عمل میکنند» تعریف کرده است.
تعریف DeepMind از AGI کمی متفاوت است: آنها آن را «هوش مصنوعیای میدانند که حداقل به اندازه انسانها در اغلب کارهای شناختی توانمند باشد.» گیج شدی؟ نگران نباش — حتی متخصصانی که در خط مقدم تحقیقاتی این حوزه هستند هم همین حس را دارند.
عامل هوش مصنوعی (AI Agent)
یک عامل هوش مصنوعی به ابزاری گفته میشود که از فناوریهای هوش مصنوعی برای انجام یک سری از کارها به نمایندگی از شما استفاده میکند — کاری فراتر از یک چتبات ساده — مثل ثبت هزینهها، رزرو بلیط یا میز در رستوران، یا حتی نوشتن و نگهداری کد.
البته همانطور که قبلاً توضیح دادیم، این حوزه هنوز در حال رشد است و اصطلاح «عامل هوش مصنوعی» ممکن است برای افراد مختلف معانی مختلفی داشته باشد.
زیرساختهای لازم برای تحقق کامل این مفهوم نیز هنوز در حال توسعه هستند. اما مفهوم پایه آن به سیستمی خودمختار اشاره دارد که میتواند از چندین سیستم هوش مصنوعی برای انجام کارهای چندمرحلهای استفاده کند.
زنجیره تفکر (Chain of Thought)
برای پاسخ به یک سوال ساده، مغز انسان میتواند بدون تفکر عمیق پاسخ دهد — مثل اینکه «کدام حیوان بلندتر است، زرافه یا گربه؟» اما در برخی موارد، برای رسیدن به جواب درست، به کاغذ و قلم نیاز دارید چون باید مراحل میانی را طی کنید.
مثلاً اگر کشاورزی مرغ و گاو داشته باشد و در مجموع ۴۰ سر و ۱۲۰ پا داشته باشند، باید معادلهای بنویسید تا بفهمید چند مرغ و چند گاو دارد (۲۰ مرغ و ۲۰ گاو).
در زمینه هوش مصنوعی، «زنجیره تفکر» به معنای شکستن یک مسئله به مراحل کوچکتر برای بهبود کیفیت پاسخ نهایی است.
معمولاً رسیدن به پاسخ در این مدلها بیشتر طول میکشد، اما دقت پاسخ، بهخصوص در مسائل منطقی یا کدنویسی، بیشتر است. این مدلها از مدلهای زبان بزرگ منشأ گرفتهاند و با استفاده از یادگیری تقویتی برای تفکر مرحلهبهمرحله بهینهسازی شدهاند.
یادگیری عمیق (Deep Learning)
زیرمجموعهای از یادگیری ماشین که در آن الگوریتمهای هوش مصنوعی با ساختاری چندلایه و مشابه شبکههای عصبی مصنوعی طراحی میشوند.
این ساختار به آنها اجازه میدهد روابط پیچیدهتری نسبت به مدلهای سادهتر مانند مدلهای خطی یا درخت تصمیم بگیرند. الگوریتمهای یادگیری عمیق از مسیرهای بههمپیوسته نورونهای مغز انسان الهام گرفتهاند.
مدلهای یادگیری عمیق قادرند ویژگیهای مهم را خودشان از دادهها استخراج کنند و نیازی به تعریف دستی توسط مهندسان ندارند.
این مدلها همچنین میتوانند از اشتباهات یاد بگیرند و با تکرار و تنظیم خود، خروجیشان را بهبود دهند. البته یادگیری عمیق به حجم زیادی از داده نیاز دارد (میلیونها مورد یا بیشتر) و معمولاً زمان آموزش بیشتری نسبت به الگوریتمهای سادهتر نیاز دارد — بنابراین هزینه توسعه هم بیشتر است.
انتشار (Diffusion)
«انتشار» تکنولوژیای است که در قلب بسیاری از مدلهای هوش مصنوعی تولیدکننده هنر، موسیقی و متن قرار دارد.
از فیزیک الهام گرفته شده و در آن سیستم با افزودن نویز، ساختار دادهها مثل عکس یا صدا را «تخریب» میکند تا چیزی از آن باقی نماند.
در فیزیک، انتشار خودبهخود و غیرقابل بازگشت است — مثلاً قند حلشده در قهوه دیگر به قالب مکعبی برنمیگردد. اما در هوش مصنوعی، سیستمهای انتشار تلاش میکنند فرآیند «انتشار معکوس» را بیاموزند تا دادههای از دسترفته را بازسازی کنند.
Distillation
Distillation که معنای فارسی آن تقطیر است روشی است برای استخراج دانش از یک مدل بزرگ با استفاده از یک مدل معلم-دانشآموز.
توسعهدهندگان پرسشهایی را به مدل معلم میفرستند و پاسخهای آن را ثبت میکنند. این پاسخها گاهی با دیتاست (Dataset) مقایسه میشود تا دقت آنها بررسی شود. سپس همین خروجیها برای آموزش مدل دانشآموز استفاده میشود تا رفتاری مشابه معلم پیدا کند.
Distillation برای ساخت نسخه کوچکتر و بهینهتر از یک مدل بزرگ با حداقل کاهش کیفیت به کار میرود. احتمالاً OpenAI از این روش برای ساخت GPT-4 Turbo استفاده کرده است — نسخه سریعتر GPT-4.
همه شرکتهای هوش مصنوعی از Distillation به صورت داخلی استفاده میکنند، اما گاهی ممکن است برای رسیدن به مدلهای پیشرفته رقیب، برخی شرکتها این روش را خلاف قوانین API استفاده کرده باشند.
تنظیم دقیق (Fine-tuning)
تنظیم دقیق به فرآیند آموزش مجدد یک مدل هوش مصنوعی از پیش آموزشدیده (پیشمدل) اطلاق میشود که با هدف بهینهسازی عملکرد آن در یک وظیفه خاصتر یا در یک دامنه کاربردی محدودتر انجام میگیرد.
این فرآیند معمولاً با استفاده از دادههایی انجام میشود که تخصصیتر، مرتبطتر و محدودتر از دادههای مورد استفاده در آموزش اولیه هستند.
در چارچوب توسعه مدلهای زبانی بزرگ (LLMs)، بسیاری از شرکتها و استارتاپهای فعال در حوزه هوش مصنوعی از مدلهای عمومی و متنباز به عنوان نقطه آغاز بهره میبرند.
آنها سپس با افزودن دادههای اختصاصی مربوط به صنعت، بازار هدف یا کاربری خاص خود—نظیر مکالمات مشتری، مستندات فنی، یا منابع زبانی بومی—مدل را مورد تنظیم دقیق قرار میدهند تا عملکرد آن در زمینه مورد نظر به شکل قابلتوجهی بهبود یابد.
تنظیم دقیق میتواند دقت، ارتباط معنایی، و انطباق مدل با نیازهای خاص یک پروژه یا محصول تجاری را افزایش دهد، بدون آنکه نیاز به آموزش مدل از صفر باشد؛ بنابراین، این روش رویکردی مقرونبهصرفه و مؤثر برای توسعه کاربردهای سفارشی مبتنی بر هوش مصنوعی محسوب میشود.
شبکه تولیدی خصمانه (GAN)
GAN یا Generative Adversarial Network نوعی چارچوب یادگیری ماشین است که برخی از پیشرفتهای مهم در تولید داده واقعی توسط AI، مثل ابزارهای دیپفیک، را ممکن ساخته است.
GAN شامل دو شبکه عصبی است. یکی از آنها بر اساس دادههای آموزشی خروجی تولید میکند، و دیگری (مدل متمایزکننده) خروجی را ارزیابی میکند.
این دو مدل در رقابت با یکدیگرند (به همین خاطر به آن “خصمانه” گفته میشود): مدل تولیدکننده تلاش میکند خروجیاش را از دید متمایزکننده پنهان کند، در حالی که مدل متمایزکننده سعی دارد داده جعلی را تشخیص دهد.
این رقابت باعث بهبود خروجیها میشود. البته GANها بیشتر برای کاربردهای خاص (مثل تولید عکس یا ویدیوهای واقعی) مناسباند تا کاربردهای عمومی.
توهم (Hallucination)
«توهم» اصطلاحی است که در صنعت AI برای اشاره به زمانی به کار میرود که مدلهای هوش مصنوعی اطلاعات نادرست تولید میکنند — یعنی عملاً «چیزی را از خودشان درمیآورند». این مسئله یکی از مشکلات اساسی کیفیت AI است.
توهم میتواند خروجیهایی تولید کند که گمراهکننده و حتی خطرناک باشند — مثلاً در پاسخ به سوالات پزشکی.
به همین دلیل اکثر ابزارهای GenAI در بخش شرایط استفاده به کاربران هشدار میدهند که پاسخهای تولیدشده را بررسی کنند، هرچند این هشدارها معمولاً خیلی کمتر از پاسخهای خودکار به چشم میآیند.
مشکل توهم اغلب به دلیل کمبود دادههای آموزشی رخ میدهد. بهویژه در مدلهای عمومی و بنیادی که به همه نوع پرسشی باید پاسخ دهند، این مشکل سختتر حل میشود. خلاصه اینکه: هنوز خدا اختراع نشده!
این مشکل باعث شده تمایل به مدلهای تخصصی یا عمودی بیشتر شود — یعنی مدلهایی با حوزه اطلاعات محدودتر اما دقیقتر، برای کاهش ریسک اطلاعات نادرست.
استنتاج (Inference)
استنتاج به فرآیند اجرای مدل AI گفته میشود. یعنی زمانی که مدل پس از آموزش، برای پیشبینی یا نتیجهگیری از دادههایی که قبلاً دیده استفاده میشود.
بهعبارتی، استنتاج بدون آموزش ممکن نیست؛ مدل باید الگوهای داده را یاد بگیرد تا بتواند به درستی پیشبینی کند.
انواع مختلفی از سختافزارها میتوانند استنتاج را انجام دهند — از پردازندههای گوشی گرفته تا کارتهای گرافیک قدرتمند یا شتابدهندههای تخصصی AI.
اما همه آنها عملکرد یکسانی ندارند. مدلهای بزرگ ممکن است روی لپتاپ به کندی اجرا شوند، در حالی که در سرورهای ابری با چیپهای پیشرفته خیلی سریعتر عمل میکنند.
مدل زبان بزرگ (LLM)
مدلهای زبان بزرگ یا LLM، مدلهایی هستند که توسط دستیارهای محبوب هوش مصنوعی مانند ChatGPT، Claude، Gemini گوگل، LLaMA متا، Copilot مایکروسافت یا Le Chat میسترال استفاده میشوند.
وقتی با این دستیارها چت میکنید، در واقع با یک LLM در تعامل هستید که درخواست شما را مستقیماً یا با کمک ابزارهای جانبی مثل مرورگر وب یا مفسر کد پردازش میکند.
مدلهای LLM شبکههای عصبی عمیقی هستند که از میلیاردها پارامتر عددی ساخته شدهاند و روابط میان کلمات و عبارات را یاد میگیرند تا نوعی نقشه چندبعدی از زبان بسازند.
این مدلها با تحلیل الگوهایی در میلیاردها کتاب، مقاله و متن آموزش دیدهاند. وقتی به یک LLM درخواست میدهید، مدلی تولید میشود که محتملترین الگو را ادامه میدهد — با پیشبینی محتملترین واژه بعدی نسبت به واژه قبلی. این فرآیند بارها و بارها تکرار میشود.
شبکه عصبی (Neural Network)
شبکه عصبی به ساختار الگوریتمی چندلایهای گفته میشود که زیرساخت اصلی یادگیری عمیق — و در مقیاس گستردهتر، رشد ابزارهای GenAI — است.
ایده استفاده از ساختار مغز انسان برای الگوریتمهای دادهپردازی از دهه ۱۹۴۰ مطرح بوده، اما ظهور کارتهای گرافیکی قدرتمند (GPU) — که ابتدا در صنعت بازی ویدئویی گسترش یافت — این امکان را فراهم کرد تا الگوریتمها بتوانند با لایههای بیشتر و عملکرد بهتر آموزش ببینند. این ساختار در حوزههایی مانند تشخیص صدا، ناوبری خودران و کشف دارو کاربرد دارد.
آموزش (Training)
آموزش یا تربیت مدلهای یادگیری ماشین، فرآیندی است که در آن داده به مدل داده میشود تا الگوهای آن را بیاموزد و خروجیهای مفید تولید کند.
پیش از آموزش، ساختار ریاضی مدل صرفاً مجموعهای از لایهها و اعداد تصادفی است. فقط با آموزش است که مدل شکل میگیرد و میتواند بر اساس ویژگیهای داده، خروجی خود را به سمت هدفی مشخص تنظیم کند — مثل تشخیص تصویر گربه یا سرودن هایکو.
توجه داشته باشید که همه AIها نیاز به آموزش ندارند. مدلهای مبتنی بر قواعد (rules-based) میتوانند بدون آموزش صرفاً طبق برنامه اجرا شوند.
یادگیری انتقالی (Transfer Learning)
یادگیری انتقالی روشی است که در آن از یک مدل هوش مصنوعی که قبلاً آموزش دیده بهعنوان نقطه شروع برای توسعه یک مدل جدید برای یک وظیفه متفاوت اما معمولاً مرتبط استفاده میشود — این کار باعث میشود دانشی که در مراحل قبلی آموزش بهدست آمده، دوباره مورد استفاده قرار گیرد.
این تکنیک میتواند باعث صرفهجویی در زمان و منابع شود، چون فرآیند توسعه مدل را کوتاهتر میکند. همچنین، وقتی دادههای مربوط به وظیفهی مورد نظر محدود باشند، یادگیری انتقالی میتواند بسیار مفید واقع شود.
اما باید توجه داشت که این رویکرد محدودیتهایی هم دارد. مدلهایی که برای کسب تواناییهای عمومی به یادگیری انتقالی متکی هستند، احتمالاً برای عملکرد مناسب در حوزهی خاص خود، به آموزش با دادههای تکمیلی نیاز خواهند داشت.
(رجوع شود به: تنظیم دقیق – Fine tuning)
وزنها (Weights)
وزنها نقش کلیدی در آموزش هوش مصنوعی دارند، چرا که مشخص میکنند چه میزان اهمیت (یا «وزن») به ویژگیها یا متغیرهای ورودی مختلف در دادههای آموزشی داده شود — و در نهایت خروجی مدل را شکل میدهند.
به بیانی دیگر، وزنها پارامترهای عددیای هستند که تعیین میکنند در یک مجموعه داده، چه چیزی برای وظیفهی آموزشی مشخص مهمتر است. این وزنها با ضرب شدن در ورودیها، تاثیر خود را اعمال میکنند.
فرآیند آموزش مدل معمولاً با وزنهایی شروع میشود که بهصورت تصادفی تعیین شدهاند، اما در طول آموزش، این وزنها تغییر میکنند تا مدل بتواند به خروجیای نزدیک به هدف برسد.
برای مثال، مدلی از هوش مصنوعی که برای پیشبینی قیمت خانهها آموزش دیده و از دادههای تاریخی بازار مسکن در یک منطقه خاص استفاده میکند، ممکن است وزنهایی برای ویژگیهایی مانند تعداد اتاقخواب و حمام، مستقل یا نیمهمستقل بودن ملک، داشتن پارکینگ، گاراژ و موارد مشابه در نظر بگیرد.
در نهایت، وزنهایی که مدل به هر یک از این ویژگیها اختصاص میدهد، نشاندهندهی میزان تأثیر آن ویژگی بر ارزش ملک است — بر اساس دادههایی که مدل با آن آموزش دیده است.
==============================================================
در پایان، امید داریم این واژهنامه بتواند به عنوان مرجعی ساده و کاربردی، درک مفاهیم پیچیده و تخصصی حوزه هوش مصنوعی را برای خوانندگان تسهیل کند. در جهانی که فناوری با شتابی بیسابقه در حال پیشرفت است، آشنایی با زبان مشترک این تحولات، نخستین گام برای همراهی مؤثر با آنهاست.