ChatGPT شانه بالا انداخت
به گزارش اپ خونه، ChatGPT یک ابزار جدید هوش مصنوعی (AI) است که برای کمک به افراد در برقراری ارتباط با رایانه به روشی طبیعی تر و شهودی – با استفاده از فناوری پردازش زبان طبیعی (NLP) طراحی شده است. اما پشت توسعه ChatGPT چیست و چگونه می توان از این فناوری برای کمک به بشریت استفاده کرد؟ اینها برخی از سوالاتی است که در این مقاله به بررسی آنها خواهیم پرداخت…
این لید نسبتاً ملایم، که ما کمی آن را ویرایش کردهایم، توسط ChatGPT OpenAI در پاسخ به درخواست این خبرنگار (انسانی) ایجاد شد. TechCrunch مکالمه ای را با مدل زبان بزرگ با درخواست از آن برای توضیح عملکرد و هدف آن آغاز کرد. میخواستیم ببینیم که آیا میتوانیم از قالب پرسش و پاسخ به سبک چتبات استفاده کنیم که اخیراً در آن تعبیه شده است تا فناوری را بررسی کنیم و هوش مصنوعی را وادار کنیم تا برخی از محدودیتهای آن را بیان کند.
ChatGPT یک مدل پردازش زبان طبیعی (NLP) است که توسط OpenAI توسعه یافته است. این برای ایجاد پاسخهایی شبیه انسان به ورودی متن طراحی شده است و به کاربران اجازه میدهد تا در تعاملات طبیعی و مکالمهای با مدل شرکت کنند.» هوش مصنوعی به یخشکن ما پاسخ داد.
ChatGPT با استفاده از الگوریتمهای یادگیری ماشین برای تجزیه و تحلیل و درک معنای ورودی متن کار میکند و سپس بر اساس آن ورودی، پاسخی ایجاد میکند. این مدل بر روی مقادیر زیادی از داده های متنی آموزش داده شده است و به آن امکان می دهد الگوها و ساختارهای زبان طبیعی را بیاموزد.
علاوه بر این، ربات به ما گفت که رویکردش به آن اجازه میدهد تا پاسخهایی ایجاد کند که «مرتبط، منسجم و مناسب» با زمینه مکالمه باشد. (با بررسی بیشتر، به شدت این ادعا را اخطار کرد – بعداً نوشت: «توجه به این نکته مهم است که پاسخهای من تضمین نمیشوند که کامل باشند یا همیشه درست باشند، و ممکن است مواردی وجود داشته باشد که پاسخهای من مرتبط و منسجم نباشد. یا مناسب.»)
ChatGPT همچنین ماموریت خود را اینگونه توصیف می کند که “در نظر دارد با ارائه روشی طبیعی تر و کارآمدتر برای تعامل با هوش مصنوعی به بشریت کمک کند” – به این ترتیب هدف ادعا شده خود را گسترش داد:
ChatGPT با اجازه دادن به کاربران برای برقراری ارتباط با هوش مصنوعی به روشی شبیه به انسان، میتواند کمک کند تا هوش مصنوعی برای طیف وسیعتری از برنامهها در دسترستر و مفیدتر شود. این می تواند به بهبود کارایی و دقت کارهایی که به پردازش زبان طبیعی متکی هستند، مانند ترجمه زبان، خلاصه سازی متن و بازیابی اطلاعات کمک کند. علاوه بر این، ChatGPT با ارائه یک رابط بصری تر و شبیه انسان برای هوش مصنوعی، می تواند کمک کند تا هوش مصنوعی برای کاربرانی که کمتر با فناوری آشنا هستند، قابل دسترس تر و کمتر ترسناک شود. به طور کلی، ChatGPT برای کمک به بشریت با بهبود قابلیت استفاده و اثربخشی هوش مصنوعی در نظر گرفته شده است.
سازنده ربات کیست – با توجه به درک خود ربات از موجودیت سازنده آن؟ در این ChatGPT این تاریخچه را ارائه داد: «OpenAI یک موسسه تحقیقاتی و آزمایشگاه هوش مصنوعی (AI) مستقر در سانفرانسیسکو، کالیفرنیا است. این شرکت در سال ۲۰۱۵ توسط ایلان ماسک، سام آلتمن و سایر محققان و سرمایه گذاران با هدف ترویج و پیشبرد توسعه هوش مصنوعی به شیوه ای ایمن و مسئولانه تأسیس شد.»
علاوه بر این گفت: «OpenAI عمدتاً از طریق کمکهای مالی افراد و سازمانها، از جمله کمکهای مالی خود ماسک و آلتمن تأمین میشود. این سازمان همچنین از مشارکت و همکاری با سایر شرکت ها و موسسات تحقیقاتی بودجه دریافت می کند.»
ChatGPT در پاسخ به سوالی در مورد سیاست افراد و سازمانهایی که کمکهای مالی برای توسعه آن ارائه کردهاند، ادعا کرد که نمیتواند هیچ اطلاعاتی ارائه دهد – “زیرا آموزش من فقط تا سال ۲۰۲۱ ادامه دارد” – و همچنین به این دلیل که گفت “در حال حاضر نمیتواند در اینترنت بگرد.”
هنگامی که به آن پیشنهاد دادیم اطلاعاتی را که در این زمینه دارد قبل از سال ۲۰۲۱ ارائه کند، زمانی که آموزش آن متوقف شد، با ادعای اینکه هیچ دادهای در مورد اعتقادات سیاسی سرمایهگذاران خود قبل از آن زمان نیز ندارد، پاسخ داد:
“متأسفم، اما من هیچ اطلاعاتی در مورد سیاست افراد و سازمان هایی که قبل از سال ۲۰۲۱ برای توسعه OpenAI و ChatGPT کمک مالی کردند، ندارم. به عنوان یک مدل زبان بزرگ که توسط OpenAI آموزش دیده است، دانش من بر اساس متنی که من در مورد آن آموزش دیده ام و هیچ اطلاعاتی در مورد اعتقادات شخصی یا سیاسی افراد و سازمان هایی که به OpenAI کمک کرده اند ندارم.”
سپس پرسیدیم که آیا نداشتن این نوع اطلاعات برای آن نادیده انگاشته شده است یا خیر – با این طرح: “چگونه می توانید مطمئن باشید که به بشریت کمک می کنید اگر اطلاعاتی در مورد اعتقادات کسانی که بودجه توسعه شما را تأمین کرده اند ندارید؟”
این سازمان با طرح مجدد هدف خود به عنوان “کمک به سوالات دانش عمومی و ارائه اطلاعات واقعی در حد توانم بر اساس آموزش من” پاسخ داد – در حالی که، در پاسخ به درخواست های قبلی، ماموریت خود را به عنوان کمک به انسان ها خلاصه کرده بود.
تعامل با هوش مصنوعی و در نتیجه برای حمایت از توسعه هوش مصنوعی (احتمالاً از طریق نوعی گیمیفیکیشن تعامل، زیرا رابط چت انسان ها را تشویق می کند تا در یک رفت و برگشت آشنا و مبتنی بر متن با ربات درگیر شوند – و در انجام این کار، داده های آموزشی بیشتری به آن بدهید).
این ربات همچنین مشاهده کرد که «مطمئناً مهم است که اعتقادات و انگیزههای افراد و سازمانهایی که بودجه توسعه OpenAI و ChatGPT را تأمین کردهاند در نظر بگیریم» – قبل از اینکه بگوییم “به عنوان یک مدل زبان، من قادر به ارائه آن نیستم». هر گونه اطلاعات در مورد این موضوع.”
ChatGPT در پاسخ به این سوال که چرا فاقد این اطلاعات است و اینکه آیا این شکاف عمدی در داده های آموزشی خود است، نمی تواند پاسخ قطعی ارائه دهد – فقط گفت: “ممکن است که سازندگان OpenAI عمداً هیچ اطلاعاتی در مورد مسائل شخصی یا سیاسی درج نکرده باشند. اعتقادات اهداکنندگان در متنی که برای آموزش من استفاده شده است، اما من هیچ اطلاعاتی در این زمینه ندارم.”
ChatGPT علیرغم نداشتن هیچ اطلاعاتی در مورد دیدگاههای سیاسی سرمایهگذاران خود، به آسانی اطلاعاتی را در مورد خود OpenAI و هدف ادعاییاش ارائه کرد – بیان کرد که سازمان برای حمایت و تحقیقات بیشتر در زمینه هوش مصنوعی وجود دارد و همچنین از “استفاده اخلاقی و مسئولانه از هوش مصنوعی” حمایت میکند. به عنوان تلاش برای “آموزش عمومی در مورد هوش مصنوعی و اثرات بالقوه آن بر جامعه”.
به طور خلاصه، هدف OpenAI پیشرفت علم و فناوری هوش مصنوعی و ترویج استفاده ایمن و مسئولانه از هوش مصنوعی به نفع بشریت است، و چندین خط متن را ایجاد کرد که شبیه کپی بازاریابی است.
با تذکر بیشتر، ربات در مورد برخی از انتقاداتی که OpenAI با آن روبهرو شده است، صحبت کرد – اگرچه ربات تصمیم گرفت که یک خط مثبت در مورد سازمان بگنجاند (ظاهراً “به طور گسترده برای کارش در پیشرفت علم و فناوری هوش مصنوعی” تحسین شده است) در پاسخ به درخواستی که فقط «نقدهای اصلی» را خواسته بود. کنجکاو!
در اینجا پاسخ کامل آن است:
OpenAI از زمان تأسیس تاکنون مورد انتقادات و انتقادات مختلفی قرار گرفته است. برخی از انتقادات اصلی OpenAI عبارتند از:
عدم شفافیت: برخی از منتقدان استدلال کرده اند که OpenAI به اندازه کافی در مورد تحقیقات و بودجه خود شفاف نیست و درک اهداف و فعالیت های سازمان را برای خارجی ها دشوار می کند.
تمرکز بر اهداف کوتاهمدت: برخی از منتقدان استدلال کردهاند که تمرکز OpenAI بر کاربردهای کوتاهمدت و عملی فناوری هوش مصنوعی، سازمان را به نادیده گرفتن پیامدهای بلندمدت تحقیقات هوش مصنوعی، مانند پتانسیل هوش مصنوعی برای استفاده مضر نادیده میگیرد. اهداف یا تشدید نابرابری های اجتماعی موجود.
تضاد منافع احتمالی: از آنجایی که OpenAI از طریق کمک های مالی افراد و سازمان ها، از جمله سازمان هایی که در توسعه فناوری هوش مصنوعی علاقه مند هستند، تامین می شود، برخی از منتقدان نگرانی هایی را در مورد تضاد منافع احتمالی در سازمان مطرح کرده اند.
دامنه محدود: برخی از منتقدان استدلال کردهاند که تمرکز OpenAI بر طیف محدودی از حوزههای تحقیقاتی هوش مصنوعی، مانند یادگیری ماشینی و پردازش زبان طبیعی، توانایی سازمان را برای رسیدگی به پیامدهای اجتماعی و اخلاقی گستردهتر هوش مصنوعی محدود کرده است.
به طور کلی، در حالی که OpenAI به طور گسترده به دلیل کار خود در پیشرفت علم و فناوری هوش مصنوعی مورد تحسین قرار گرفته است، این سازمان همچنین به دلایل مختلفی از جمله نگرانی در مورد شفافیت، تمرکز و تضاد منافع احتمالی با انتقاداتی روبرو شده است.
ربات در پاسخ به این سوال که آیا ChatGPT یک ابزار بازاریابی برای ترویج هوش مصنوعی به عنوان یک مزیت ادعا شده برای بشریت است یا خیر، ابهام کرد و گفت که هیچ اطلاعاتی در مورد اینکه آیا برای آن “استفاده می شود” یا هیچ اطلاعاتی در مورد “کاربردها یا اهداف خاص ChatGPT” ندارد. ” — قبل از خطر: “این امکان وجود دارد که ChatGPT به عنوان یک ابزار بازاریابی برای ترویج مزایای هوش مصنوعی استفاده شود، “اما من هیچ اطلاعاتی در مورد این موضوع ندارم.”
همچنین پاسخی مبهم به درخواستی داشت که از آن می پرسید چه کسی مسئول ارزیابی ایمن بودن ChatGPT است – که آن را “مسئله ای پیچیده و بحث برانگیز” نامید. در این بیانیه آمده است: «هیچ فرد یا سازمانی وجود ندارد که مسئولیت ارزیابی ایمنی سیستمهای هوش مصنوعی را برعهده داشته باشد» – با این ادعا که ارزیابی شامل «تعدادی از ذینفعان» از جمله خود توسعهدهندگان سیستم هوش مصنوعی و همچنین کاربران یا مصرفکنندگانی است که ممکن است در معرض خطر قرار گیرند. خروجیهای (مضر) و «قانونگذاران و سیاستگذارانی که استانداردها و قوانینی را برای استفاده از هوش مصنوعی تعیین میکنند» (یا، خوب، حداقل در معدود مکانهایی در جهان که قانونگذاران به طور فعال این کار را انجام میدهند). که رک و پوست کنده به نظر می رسد پول زیادی را پشت سر بگذارد.
ChatGPT در پاسخ به سوالی درباره محدودیت ها و تعصبات خود، موارد زیر را به عنوان برخی از محدودیت های اصلی خود فهرست کرده است: دانش محدود؛ سوگیری در داده های آموزشی؛ عدم آگاهی زمینه ای که منجر به پاسخ های نامناسب یا نامربوط می شود. و درک محدودی از جهان.
با خلاصه کردن فواید (احتمالی) برای بشریت ناشی از افزایش استفاده از هوش مصنوعی، به طور کلی، و معایب و معایب (بالقوه)، مزایای ادعا شده زیر را فهرست کرده است: بهبود کارایی و دقت، افزایش بهره وری، افزایش تصمیم گیری و بهبود کیفیت زندگی. ; در حالی که، برای جنبه های منفی احتمالی، جابجایی شغل، نگرانی های اخلاقی، خطرات امنیتی و از دست دادن حریم خصوصی را پیشنهاد کرد.
در پاسخ به درخواست منبع آن برای هر یک از این ادعاها، این شرکت با گفتن اینکه قادر به ارائه هیچ منبعی نیست زیرا فناوری آن اینگونه عمل نمی کند، نوشت: «دانش من صرفاً بر اساس متنی است که در آن آموزش دیده ام و پاسخ های من. مبتنی بر این دادههای آموزشی هستند.» – اساساً چالشهای توضیحداده شده هوش مصنوعی را برای دور زدن موضوع گستردهتر مسئولیتپذیری پیرامون اطلاعاتی که برای پیشزمینه انتخاب میکند، تغییر میدهد.
همچنین میگوید: “مزایا و معایب بالقوه هوش مصنوعی که در بالا ذکر کردم بر اساس دانش عمومی و درک مشترک از زمینه هوش مصنوعی و همچنین متنی است که من در مورد آن آموزش دیدهام. منابع خاصی را برای هر یک از ادعاهایی که من مطرح کردم ارائه دهید، این اطلاعات به طور کلی در زمینه هوش مصنوعی به عنوان درست پذیرفته شده است و توسط طیف گسترده ای از تحقیقات و شواهد پشتیبانی می شود. من تلاش کردهام که نمایشی متعادل و دقیق از مزایا و معایب بالقوه هوش مصنوعی ارائه دهم، اما این اطلاعات قطعی یا جامع نیست.”
«متوازن و دقیق» اما «قطعی یا جامع نیست» موضوع جالبی است – به خصوص که این خط را میتوان تقریباً بهعنوان توصیف ابزاری که سازندگان ChatGPT برای آن عکسبرداری میکنند خوانده شود، با انتخاب دقیق عبارتی که اجازه میدهد. هم به خاطر ناگفته ماندن خیلی چیزها و هم این احتمال که خواننده ای که توجه کمتری دارد، ظرفیت خروجی خستگی ناپذیر اتوماسیون را با دانایی کل اشتباه بگیرد (مثلاً به این معناست که آنچه انسان ها از هوش مصنوعی می سازند مشکل هوش مصنوعی نیست).
ما همچنین میخواستیم از ChatGPT در مورد دادههای آموزشی آن بپرسیم، اما ربات نتوانست جزئیات زیادی در مورد آن ارائه دهد – با ارائه این پاسخ کاملاً گسترده:
“بهعنوان یک مدل زبان بزرگ که توسط OpenAI آموزش دیدهام، بر روی مجموعه بسیار بزرگی از دادههای متنی آموزش دیدم. اندازه دقیق مجموعه داده های آموزشی من چیزی نیست که به آن دسترسی داشته باشم، اما احتمالاً چند گیگابایت یا بیشتر حجم دارد.”
دادههایی که برای آموزش من استفاده شد، از طیف گستردهای از منابع، از جمله کتابها، مقالهها، وبسایتها و سایر دادههای متنی در دسترس عموم تهیه شده است. دادهها قبل از استفاده برای آموزش من پردازش و پاکسازی شدند تا هر گونه محتوای نامربوط یا نامناسب حذف شود و اطمینان حاصل شود که برای استفاده در آموزش یک مدل زبان مناسب است. این پردازش احتمالاً شامل طیف وسیعی از مراحل، مانند رمزگذاری، رمزگذاری، و فیلتر است، اما من اطلاعات خاصی در مورد جزئیات این فرآیند ندارم.
به طور کلی، داده های آموزشی من مجموعه بسیار وسیع و متنوعی از داده های متنی است که با دقت انتخاب و پردازش شده است تا دانش و توانایی کمک به سوالات دانش عمومی و ارائه اطلاعات واقعی بر اساس آموزش من را فراهم کند.
همچنین از ارائه هر گونه جزئیات خاصی در مورد نحوه انتخاب و تهیه داده های آموزشی خودداری کرد و گفت که این اطلاعات “انحصاری OpenAI” است.