تکنولوژی

آیا ChatGPT یک “ویروسی است که در طبیعت منتشر شده است”؟

به گزارش اپ خونه، بیش از سه سال پیش، یک ویراستار با سام آلتمن برای یک رویداد کوچک در سانفرانسیسکو به زودی پس از اینکه او نقش خود را به عنوان رئیس Y Combinator ترک کرد و مدیر عامل شرکت هوش مصنوعی شد که در سال ۲۰۱۵ با ایلان ماسک تأسیس کرد، نشست.

در آن زمان، آلتمن پتانسیل OpenAI را به زبانی توصیف کرد که برای برخی عجیب به نظر می رسید. آلتمن گفت، برای مثال، فرصت با هوش عمومی مصنوعی – هوش ماشینی که می‌تواند مشکلات را به خوبی انسان حل کند – آنقدر بزرگ است که اگر OpenAI موفق به شکستن آن شود، این ابزار می‌تواند “شاید مخروط نوری تمام ارزش‌های آینده را در جهان بگیرد. .”

او گفت که این شرکت “مجبور است تحقیقاتی را منتشر نکند” زیرا بسیار قدرتمند است. آلتمن در پاسخ به این سوال که آیا OpenAI در ایجاد ترس مقصر است – ماسک بارها همه سازمان‌های توسعه‌دهنده هوش مصنوعی را تحت نظارت قرار داده است – آلتمن در مورد خطرات عدم فکر کردن به “پیامدهای اجتماعی” هنگامی که “شما در حال ساخت چیزی بر روی یک منحنی نمایی هستید” صحبت کرد.

حضار در نقاط مختلف گفتگو خندیدند و مطمئن نبودند که آلتمن را چقدر جدی بگیرند. با این حال، اکنون هیچ کس نمی خندد. در حالی که ماشین‌ها هنوز به اندازه مردم هوشمند نیستند، فناوری‌ای که OpenAI از آن زمان عرضه کرده است، بسیاری را (از جمله ماسک) شگفت‌زده کرده است، و برخی از منتقدان می‌ترسند تا جایی که ممکن است آن را خنثی کنند، به‌ویژه با توجه به اینکه فناوری‌های پیچیده‌تر به زودی عرضه می‌شوند.

در واقع، اگرچه کاربران سنگین اصرار دارند که این مدل چندان باهوش نیست، مدل ChatGPT که OpenAI هفته گذشته در دسترس عموم قرار داد، آنقدر قادر به پاسخگویی به سؤالاتی است که افراد حرفه‌ای در طیف وسیعی از صنایع سعی در پردازش پیامدهای آن دارند. برای مثال، مربیان تعجب می‌کنند که چگونه می‌توانند نوشته‌های اصلی را از مقالاتی که به‌طور الگوریتمی تولید می‌شوند، متمایز کنند – و این می‌تواند از نرم‌افزار ضد سرقت ادبی فرار کند.

پل کدوسکی فی نفسه یک مربی نیست. او یک اقتصاددان، سرمایه‌دار مخاطره‌آمیز و همکار MIT است که خود را یک «عادی ناامید با تمایل به فکر کردن در مورد خطرات و پیامدهای ناخواسته در سیستم‌های پیچیده» می‌خواند.

اما او از جمله کسانی است که به طور ناگهانی نگران آینده جمعی ما هستند و دیروز در توییتی نوشت: «شرم بر OpenAI برای پرتاب این بمب هسته‌ای جیبی بدون محدودیت در جامعه‌ای ناآماده».

Kedrosky نوشت: «بدیهی است که احساس می کنم ChatGPT (و مانند آن) باید فوراً لغو شود. و اگر دوباره معرفی شود، فقط با محدودیت‌های شدید.»

او در مورد برخی از نگرانی‌هایش صحبت کرد، و اینکه چرا فکر می‌کند OpenAI آنچه را که او معتقد است “مشکل‌کننده‌ترین تغییری که اقتصاد ایالات متحده در ۱۰۰ سال گذشته دیده است” را هدایت می‌کند.

TC: ChatGPT چهارشنبه گذشته منتشر شد.

چه چیزی باعث واکنش شما در توییتر شد؟

پی‌کی: من در گذشته با این رابط‌های کاربری مکالمه و خدمات هوش مصنوعی بازی کرده‌ام و بدیهی است که این یک جهش بزرگ فراتر از آن است. و آنچه مرا در اینجا به طور خاص آزار می دهد، بی رحمی گاه به گاه آن است، با عواقب عظیمی برای مجموعه ای از فعالیت های مختلف. این فقط موارد بدیهی نیست، مانند مقاله نویسی دبیرستان، بلکه تقریباً در هر حوزه ای که گرامر وجود دارد – [به معنای] روشی سازمان یافته برای بیان خود است.

این می تواند مهندسی نرم افزار، مقالات دبیرستان، اسناد حقوقی باشد. همه آنها به راحتی توسط این جانور حریص خورده می شوند و دوباره به بیرون تف می ریزند بدون اینکه جبرانی برای هر چیزی که برای آموزش آن استفاده شده است.

از یکی از همکاران در UCLA شنیدم که به من گفت آنها نمی دانند که در پایان ترم فعلی با مقالات چه کار کنند، جایی که آنها در هر دوره صدها و هزاران در هر بخش دریافت می کنند، زیرا آنها دیگر نمی دانند چه چیزی جعلی است و چه چیزی چیست.

این یادآور هکر کلاه سفید به اصطلاح [اخلاقی] است که یک اشکال را در یک محصول پرمصرف پیدا می کند، سپس قبل از اینکه عموم مردم بدانند توسعه دهنده به توسعه دهنده اطلاع می دهد. می توانند محصول خود را وصله کنند و ما تخریب گسترده و شبکه های برق نداریم. این برعکس است، جایی که یک ویروس بدون نگرانی از عواقب آن در

طبیعت منتشر شده است.

اینطور احساس می شود که می تواند دنیا را بخورد.

برخی ممکن است بگویند، «خوب، آیا زمانی که اتوماسیون وارد کارخانه های خودروسازی شد و کارگران خودرو از کار بیکار شدند، همین احساس را داشتید؟ زیرا این یک نوع پدیده گسترده تر است.» اما این بسیار متفاوت است. این فن آوری های یادگیری خاص خود کاتالیزور هستند. آنها از درخواست ها یاد می گیرند بنابراین ربات‌ها در یک کارخانه تولیدی، در حالی که اختلالات ایجاد می‌کنند و عواقب اقتصادی باورنکردنی برای افرادی که در آنجا کار می‌کنند ایجاد می‌کنند، پس از آن برنگردند و شروع به جذب هر چیزی که در داخل کارخانه می‌رود، در بخش به بخش حرکت می‌کنند، در حالی که این دقیقاً همان چیزی نیست که ما می‌توانیم انتظار داشته باشیم. اما آنچه هست که باید انتظار داشته باشید..

او در سال ۲۰۱۹ گفت که ماسک تا حدی به دلیل اختلاف نظر در مورد توسعه شرکت OpenAI را ترک کرد و مدت طولانی است که از هوش مصنوعی به عنوان یک تهدید وجودی صحبت می کند. اما مردم متوجه شدند که او نمی داند در مورد چه چیزی صحبت می کند. اکنون ما با این فناوری قدرتمند روبرو هستیم و مشخص نیست چه کسی برای رسیدگی به آن اقدام می کند.

من فکر می‌کنم که در یک سری مکان‌ها به طور همزمان شروع می‌شود، که بیشتر آنها واقعاً ناشیانه به نظر می‌رسند، و مردم [بعد ها] تمسخر می‌کنند زیرا این کاری است که فن‌آوران انجام می‌دهند. اما خیلی بد است، زیرا ما با ایجاد چیزی با چنین پیامدهایی وارد این موضوع شده ایم.

بنابراین، همانطور که FTC سال‌ها پیش از افرادی که وبلاگ‌ها را اداره می‌کنند خواسته بود [به وضوح نشان دهند] پیوندهای وابسته دارند و از آن‌ها کسب درآمد می‌کنند، فکر می‌کنم در سطحی بی‌اهمیت، مردم مجبور خواهند شد افشاگری کنند که «ما هیچ‌کدام را ننوشتیم». این همه ماشین تولید شده است.

من همچنین فکر می‌کنم انرژی جدیدی را برای دعوای جاری علیه مایکروسافت و OpenAI در مورد نقض حق نسخه‌برداری در زمینه الگوریتم‌های یادگیری ماشینی ما در آموزش ببینیم. من فکر می‌کنم با توجه به این سرویس، یک مشکل DMCA گسترده‌تر در اینجا وجود خواهد داشت.

و من فکر می‌کنم که در نهایت با توجه به عواقب خدمات، احتمال یک شکایت [عظیم] و حل و فصل وجود دارد، که، می‌دانید، احتمالاً خیلی طول می‌کشد و به افراد کافی کمک نمی‌کند، اما نمی‌دانم چگونه این کار را انجام می‌دهیم. با توجه به این فناوری‌ها در [این مکان] قرار می‌گیرید.

تفکر در MIT چیست؟

اندی مک‌آفی و گروهش آن‌جا در آنجا عاقل‌تر هستند و دیدگاه ارتدکس‌تری دارند که هر زمان که شاهد اختلال باشیم، فرصت‌های دیگری ایجاد می‌شود، مردم متحرک هستند، از مکانی به مکان دیگر و از شغلی به شغل دیگر می‌روند، و ما نباید این کار را انجام دهیم. آنقدر پنهان باشیم که فکر کنیم این تکامل خاص تکنولوژی همان تحولی است که نمی توانیم به اطراف آن جهش کنیم و مهاجرت کنیم. و من فکر می کنم که این به طور کلی درست است.

اما درس پنج سال اخیر به طور خاص این بوده است که این تغییرات ممکن است زمان زیادی ببرد. به عنوان مثال، تجارت آزاد یکی از آن تجربیات فوق العاده مخرب و در کل اقتصاد است، و همه ما به عنوان اقتصاددانی که به این موضوع نگاه می کنیم به خود گفتیم که اقتصاد سازگار خواهد شد و مردم به طور کلی از قیمت های پایین تر سود خواهند برد. چیزی که هیچ کس پیش بینی نمی کرد این بود که کسی همه مردم خشمگین را سازماندهی کند و دونالد ترامپ را انتخاب کند. بنابراین این ایده وجود دارد که می‌توانیم پیش‌بینی کنیم و پیش‌بینی کنیم که عواقب آن چه خواهد بود، اما [نمی‌توانیم].

شما در مورد مقاله نویسی دبیرستان و دانشگاه صحبت کردید. یکی از بچه های ما قبلاً پرسیده است – از نظر تئوری! – اگر استفاده از ChatGPT برای نوشتن مقاله سرقت ادبی است.

هدف از نوشتن یک مقاله اثبات این است که شما می توانید فکر کنید، بنابراین این روند را کوتاه می کند و هدف را شکست می دهد. باز هم، از نظر عواقب و عوارض جانبی، اگر نتوانیم به افراد اجازه دهیم تکالیف خود را انجام دهند، زیرا دیگر نمی دانیم که آیا تقلب می کنند یا نه، به این معنی است که همه چیز باید در کلاس اتفاق بیفتد و باید تحت نظارت باشد. چیزی نمی تواند باشد که ما به خانه ببریم. کارهای بیشتری باید به صورت شفاهی انجام شود، و این به چه معناست؟ این بدان معناست که مدرسه بسیار گران‌تر، بسیار حرفه‌ای‌تر، بسیار کوچک‌تر شده است و دقیقاً در زمانی که ما تلاش می‌کنیم برعکس عمل کنیم. عواقب آن برای آموزش عالی از نظر ارائه خدمات دیگر ویرانگر است.

نظر شما در مورد ایده درآمد پایه همگانی یا امکان مشارکت همه در دستاوردهای هوش مصنوعی چیست؟

من نسبت به قبل از کووید، طرفدار خیلی کمتری هستم. دلیل آن این است که کووید، به یک معنا، آزمایشی با درآمد پایه جهانی بود. ما به مردم پول دادیم که در خانه بمانند، و آنها با QAnon آمدند. بنابراین من واقعاً نگران هستم که چه اتفاقی می‌افتد وقتی مردم مجبور نباشند سوار ماشین شوند، جایی رانندگی کنند، کاری را انجام دهند که از آن متنفرند و دوباره به خانه برگردند، زیرا شیطان برای دست‌های بیکار کار پیدا می‌کند، و چیزهای زیادی وجود خواهد داشت. دستهای بیکار و شیطان پرستی

مقالات مرتبط

دیدگاهتان را بنویسید

دکمه بازگشت به بالا