آیا ChatGPT یک “ویروسی است که در طبیعت منتشر شده است”؟
به گزارش اپ خونه، بیش از سه سال پیش، یک ویراستار با سام آلتمن برای یک رویداد کوچک در سانفرانسیسکو به زودی پس از اینکه او نقش خود را به عنوان رئیس Y Combinator ترک کرد و مدیر عامل شرکت هوش مصنوعی شد که در سال ۲۰۱۵ با ایلان ماسک تأسیس کرد، نشست.
در آن زمان، آلتمن پتانسیل OpenAI را به زبانی توصیف کرد که برای برخی عجیب به نظر می رسید. آلتمن گفت، برای مثال، فرصت با هوش عمومی مصنوعی – هوش ماشینی که میتواند مشکلات را به خوبی انسان حل کند – آنقدر بزرگ است که اگر OpenAI موفق به شکستن آن شود، این ابزار میتواند “شاید مخروط نوری تمام ارزشهای آینده را در جهان بگیرد. .”
او گفت که این شرکت “مجبور است تحقیقاتی را منتشر نکند” زیرا بسیار قدرتمند است. آلتمن در پاسخ به این سوال که آیا OpenAI در ایجاد ترس مقصر است – ماسک بارها همه سازمانهای توسعهدهنده هوش مصنوعی را تحت نظارت قرار داده است – آلتمن در مورد خطرات عدم فکر کردن به “پیامدهای اجتماعی” هنگامی که “شما در حال ساخت چیزی بر روی یک منحنی نمایی هستید” صحبت کرد.
حضار در نقاط مختلف گفتگو خندیدند و مطمئن نبودند که آلتمن را چقدر جدی بگیرند. با این حال، اکنون هیچ کس نمی خندد. در حالی که ماشینها هنوز به اندازه مردم هوشمند نیستند، فناوریای که OpenAI از آن زمان عرضه کرده است، بسیاری را (از جمله ماسک) شگفتزده کرده است، و برخی از منتقدان میترسند تا جایی که ممکن است آن را خنثی کنند، بهویژه با توجه به اینکه فناوریهای پیچیدهتر به زودی عرضه میشوند.
در واقع، اگرچه کاربران سنگین اصرار دارند که این مدل چندان باهوش نیست، مدل ChatGPT که OpenAI هفته گذشته در دسترس عموم قرار داد، آنقدر قادر به پاسخگویی به سؤالاتی است که افراد حرفهای در طیف وسیعی از صنایع سعی در پردازش پیامدهای آن دارند. برای مثال، مربیان تعجب میکنند که چگونه میتوانند نوشتههای اصلی را از مقالاتی که بهطور الگوریتمی تولید میشوند، متمایز کنند – و این میتواند از نرمافزار ضد سرقت ادبی فرار کند.
پل کدوسکی فی نفسه یک مربی نیست. او یک اقتصاددان، سرمایهدار مخاطرهآمیز و همکار MIT است که خود را یک «عادی ناامید با تمایل به فکر کردن در مورد خطرات و پیامدهای ناخواسته در سیستمهای پیچیده» میخواند.
اما او از جمله کسانی است که به طور ناگهانی نگران آینده جمعی ما هستند و دیروز در توییتی نوشت: «شرم بر OpenAI برای پرتاب این بمب هستهای جیبی بدون محدودیت در جامعهای ناآماده».
Kedrosky نوشت: «بدیهی است که احساس می کنم ChatGPT (و مانند آن) باید فوراً لغو شود. و اگر دوباره معرفی شود، فقط با محدودیتهای شدید.»
او در مورد برخی از نگرانیهایش صحبت کرد، و اینکه چرا فکر میکند OpenAI آنچه را که او معتقد است “مشکلکنندهترین تغییری که اقتصاد ایالات متحده در ۱۰۰ سال گذشته دیده است” را هدایت میکند.
TC: ChatGPT چهارشنبه گذشته منتشر شد.
چه چیزی باعث واکنش شما در توییتر شد؟
پیکی: من در گذشته با این رابطهای کاربری مکالمه و خدمات هوش مصنوعی بازی کردهام و بدیهی است که این یک جهش بزرگ فراتر از آن است. و آنچه مرا در اینجا به طور خاص آزار می دهد، بی رحمی گاه به گاه آن است، با عواقب عظیمی برای مجموعه ای از فعالیت های مختلف. این فقط موارد بدیهی نیست، مانند مقاله نویسی دبیرستان، بلکه تقریباً در هر حوزه ای که گرامر وجود دارد – [به معنای] روشی سازمان یافته برای بیان خود است.
این می تواند مهندسی نرم افزار، مقالات دبیرستان، اسناد حقوقی باشد. همه آنها به راحتی توسط این جانور حریص خورده می شوند و دوباره به بیرون تف می ریزند بدون اینکه جبرانی برای هر چیزی که برای آموزش آن استفاده شده است.
از یکی از همکاران در UCLA شنیدم که به من گفت آنها نمی دانند که در پایان ترم فعلی با مقالات چه کار کنند، جایی که آنها در هر دوره صدها و هزاران در هر بخش دریافت می کنند، زیرا آنها دیگر نمی دانند چه چیزی جعلی است و چه چیزی چیست.
این یادآور هکر کلاه سفید به اصطلاح [اخلاقی] است که یک اشکال را در یک محصول پرمصرف پیدا می کند، سپس قبل از اینکه عموم مردم بدانند توسعه دهنده به توسعه دهنده اطلاع می دهد. می توانند محصول خود را وصله کنند و ما تخریب گسترده و شبکه های برق نداریم. این برعکس است، جایی که یک ویروس بدون نگرانی از عواقب آن در
طبیعت منتشر شده است.
اینطور احساس می شود که می تواند دنیا را بخورد.
برخی ممکن است بگویند، «خوب، آیا زمانی که اتوماسیون وارد کارخانه های خودروسازی شد و کارگران خودرو از کار بیکار شدند، همین احساس را داشتید؟ زیرا این یک نوع پدیده گسترده تر است.» اما این بسیار متفاوت است. این فن آوری های یادگیری خاص خود کاتالیزور هستند. آنها از درخواست ها یاد می گیرند بنابراین رباتها در یک کارخانه تولیدی، در حالی که اختلالات ایجاد میکنند و عواقب اقتصادی باورنکردنی برای افرادی که در آنجا کار میکنند ایجاد میکنند، پس از آن برنگردند و شروع به جذب هر چیزی که در داخل کارخانه میرود، در بخش به بخش حرکت میکنند، در حالی که این دقیقاً همان چیزی نیست که ما میتوانیم انتظار داشته باشیم. اما آنچه هست که باید انتظار داشته باشید..
او در سال ۲۰۱۹ گفت که ماسک تا حدی به دلیل اختلاف نظر در مورد توسعه شرکت OpenAI را ترک کرد و مدت طولانی است که از هوش مصنوعی به عنوان یک تهدید وجودی صحبت می کند. اما مردم متوجه شدند که او نمی داند در مورد چه چیزی صحبت می کند. اکنون ما با این فناوری قدرتمند روبرو هستیم و مشخص نیست چه کسی برای رسیدگی به آن اقدام می کند.
من فکر میکنم که در یک سری مکانها به طور همزمان شروع میشود، که بیشتر آنها واقعاً ناشیانه به نظر میرسند، و مردم [بعد ها] تمسخر میکنند زیرا این کاری است که فنآوران انجام میدهند. اما خیلی بد است، زیرا ما با ایجاد چیزی با چنین پیامدهایی وارد این موضوع شده ایم.
بنابراین، همانطور که FTC سالها پیش از افرادی که وبلاگها را اداره میکنند خواسته بود [به وضوح نشان دهند] پیوندهای وابسته دارند و از آنها کسب درآمد میکنند، فکر میکنم در سطحی بیاهمیت، مردم مجبور خواهند شد افشاگری کنند که «ما هیچکدام را ننوشتیم». این همه ماشین تولید شده است.
من همچنین فکر میکنم انرژی جدیدی را برای دعوای جاری علیه مایکروسافت و OpenAI در مورد نقض حق نسخهبرداری در زمینه الگوریتمهای یادگیری ماشینی ما در آموزش ببینیم. من فکر میکنم با توجه به این سرویس، یک مشکل DMCA گستردهتر در اینجا وجود خواهد داشت.
و من فکر میکنم که در نهایت با توجه به عواقب خدمات، احتمال یک شکایت [عظیم] و حل و فصل وجود دارد، که، میدانید، احتمالاً خیلی طول میکشد و به افراد کافی کمک نمیکند، اما نمیدانم چگونه این کار را انجام میدهیم. با توجه به این فناوریها در [این مکان] قرار میگیرید.
تفکر در MIT چیست؟
اندی مکآفی و گروهش آنجا در آنجا عاقلتر هستند و دیدگاه ارتدکستری دارند که هر زمان که شاهد اختلال باشیم، فرصتهای دیگری ایجاد میشود، مردم متحرک هستند، از مکانی به مکان دیگر و از شغلی به شغل دیگر میروند، و ما نباید این کار را انجام دهیم. آنقدر پنهان باشیم که فکر کنیم این تکامل خاص تکنولوژی همان تحولی است که نمی توانیم به اطراف آن جهش کنیم و مهاجرت کنیم. و من فکر می کنم که این به طور کلی درست است.
اما درس پنج سال اخیر به طور خاص این بوده است که این تغییرات ممکن است زمان زیادی ببرد. به عنوان مثال، تجارت آزاد یکی از آن تجربیات فوق العاده مخرب و در کل اقتصاد است، و همه ما به عنوان اقتصاددانی که به این موضوع نگاه می کنیم به خود گفتیم که اقتصاد سازگار خواهد شد و مردم به طور کلی از قیمت های پایین تر سود خواهند برد. چیزی که هیچ کس پیش بینی نمی کرد این بود که کسی همه مردم خشمگین را سازماندهی کند و دونالد ترامپ را انتخاب کند. بنابراین این ایده وجود دارد که میتوانیم پیشبینی کنیم و پیشبینی کنیم که عواقب آن چه خواهد بود، اما [نمیتوانیم].
شما در مورد مقاله نویسی دبیرستان و دانشگاه صحبت کردید. یکی از بچه های ما قبلاً پرسیده است – از نظر تئوری! – اگر استفاده از ChatGPT برای نوشتن مقاله سرقت ادبی است.
هدف از نوشتن یک مقاله اثبات این است که شما می توانید فکر کنید، بنابراین این روند را کوتاه می کند و هدف را شکست می دهد. باز هم، از نظر عواقب و عوارض جانبی، اگر نتوانیم به افراد اجازه دهیم تکالیف خود را انجام دهند، زیرا دیگر نمی دانیم که آیا تقلب می کنند یا نه، به این معنی است که همه چیز باید در کلاس اتفاق بیفتد و باید تحت نظارت باشد. چیزی نمی تواند باشد که ما به خانه ببریم. کارهای بیشتری باید به صورت شفاهی انجام شود، و این به چه معناست؟ این بدان معناست که مدرسه بسیار گرانتر، بسیار حرفهایتر، بسیار کوچکتر شده است و دقیقاً در زمانی که ما تلاش میکنیم برعکس عمل کنیم. عواقب آن برای آموزش عالی از نظر ارائه خدمات دیگر ویرانگر است.
نظر شما در مورد ایده درآمد پایه همگانی یا امکان مشارکت همه در دستاوردهای هوش مصنوعی چیست؟
من نسبت به قبل از کووید، طرفدار خیلی کمتری هستم. دلیل آن این است که کووید، به یک معنا، آزمایشی با درآمد پایه جهانی بود. ما به مردم پول دادیم که در خانه بمانند، و آنها با QAnon آمدند. بنابراین من واقعاً نگران هستم که چه اتفاقی میافتد وقتی مردم مجبور نباشند سوار ماشین شوند، جایی رانندگی کنند، کاری را انجام دهند که از آن متنفرند و دوباره به خانه برگردند، زیرا شیطان برای دستهای بیکار کار پیدا میکند، و چیزهای زیادی وجود خواهد داشت. دستهای بیکار و شیطان پرستی