بحران اعتماد در ردیت: حمله رباتهای هوش مصنوعی و تلاش برای تأیید انسان بودن کاربران
به گزارش اپ خونه، در هفته گذشته، کاربران ردیت (Reddit) در سراسر جهان شوکه شدند وقتی فهمیدند یک تیم تحقیقاتی، دستهای از رباتهای مجهز به هوش مصنوعی را وارد انجمن معروف “Change My View” کردهاند.
انجمن Change My View (بهاختصار CMV) یکی از سابردیتهای برجسته و شناختهشده در وبسایت Reddit است که با هدف ارتقاء سطح گفتوگوی منطقی و باز میان کاربران شکل گرفته است.
در این انجمن، افراد دیدگاههای شخصی خود را درباره موضوعات مختلف مطرح میکنند و از سایر کاربران دعوت مینمایند تا با استدلال و منطق، آن دیدگاهها را به چالش بکشند یا تغییر دهند.
هدف از راهاندازی این انجمن، تشویق افراد به بازنگری در عقایدشان با استفاده از منطق و شواهد است. نویسنده هر پست بهصراحت اعلام میکند که آماده است در صورت مواجهه با استدلالهای قوی و منطقی، نظر خود را تغییر دهد. این رویکرد برخلاف بسیاری از محیطهای آنلاین است که افراد بیشتر بهدنبال تأیید شدن هستند تا نقد شدن.
نمونهای از یک پست در CMV:
«من معتقدم تعطیلات رسمی زیاد برای اقتصاد مضر است. لطفاً نظرم را تغییر دهید.»
کاربران دیگر در بخش نظرات با ارائه دیدگاهها، شواهد، و تحلیلهای منطقی خود تلاش میکنند نظر نویسنده را تغییر دهند. اگر نویسنده احساس کند واقعاً متقاعد شده است، به نظر مؤثر یک نشان ویژه بهنام دلتا (Δ) اختصاص میدهد. این نماد نشانهای از تغییر واقعی دیدگاه بر اساس گفتوگوی سازنده است.
اهمیت این انجمن در فضای دیجیتال:
-
ایجاد محیطی برای بحثهای محترمانه و منطقی
-
تشویق به شنیدن دیدگاههای متفاوت و خارج شدن از «حبابهای فکری»
-
تقویت مهارتهای تفکر انتقادی و تبادل محترمانه نظر
در مجموع، CMV را میتوان نمونهای موفق از فضای گفتوگوی سالم و تفکر باز در اینترنت دانست—ویژگیای که در بسیاری از محیطهای آنلاین بهسختی یافت میشود.
حال برگردیم به ورود ربات های هوش مصنوعی به این انجمن. این رباتها طوری طراحی شده بودند که مثل انسانها رفتار کنند و هدف از این آزمایش، بررسی میزان تأثیرگذاری و متقاعدکنندگی هوش مصنوعی بود.
این رباتها بیش از ۱۷۰۰ کامنت منتشر کردند و خود را به شکل شخصیتهایی مانند بازماندگان خشونت یا حتی افراد با دیدگاههای جنجالی مانند مخالفان جنبش Black Lives Matter جا زدند.
جنبش Black Lives Matter (BLM) یک جنبش اجتماعی است که در سال ۲۰۱۳ در ایالات متحده آمریکا به وجود آمد. این جنبش به طور خاص علیه خشونت و نابرابریهایی که در اثر نژادپرستی به سیاهپوستان وارد میشود، شکل گرفته است.
برای ردیت، این اتفاق شبیه یک کابوس کوچک بود. برند ردیت همواره با اصالت و واقعی بودن شناخته شده؛ جایی که مردم واقعی نظرات واقعیشان را بیان میکنند.
حالا اگر این فضا با محتوای جعلی یا رباتی آلوده شود و دیگر کسی مطمئن نباشد که با انسان واقعی طرف است، نهتنها هویت اصلی ردیت به خطر میافتد، بلکه حتی مدل درآمدی آن نیز تهدید میشود—چرا که حالا دادههای ردیت به شرکتهایی مثل OpenAI فروخته میشود تا مدلهای هوش مصنوعی را آموزش دهند.
شرکت ردیت این آزمایش را “غیراخلاقی و نادرست” توصیف کرد و شکایتی رسمی به دانشگاه برگزارکننده ارائه داد. اما این فقط یکی از نخستین نمونههایی است که نشان میدهد در آینده، حضور رباتهای هوش مصنوعی به جای انسانها در ردیت (چه برای تحقیق، چه برای دستکاری سیاسی) ممکن است رایجتر شود.
برای مقابله با این خطر و برای “انسانی نگه داشتن ردیت”، این پلتفرم بهطور بیسروصدا اقداماتی را آغاز کرده که شاید برای برخی کاربران، بهویژه آنهایی که بهخاطر ناشناس بودن به ردیت آمدهاند، خوشایند نباشد.
مدیرعامل ردیت، استیو هافمن، در پستی اعلام کرد که ردیت شروع به همکاری با سرویسهای شخص ثالث برای تأیید انسان بودن کاربران خواهد کرد. این تصمیم، تغییر بزرگی در سیاست پلتفرمی است که تا حالا تقریباً هیچ اطلاعات شخصی برای ایجاد حساب کاربری درخواست نمیکرد.
هافمن نوشت: «برای اینکه ردیت را انسانی نگه داریم و الزامات نظارتی جدید را برآورده کنیم، باید اطلاعات بیشتری داشته باشیم. بهطور مشخص، باید بدانیم شما انسان هستید و در بعضی مناطق، باید بدانیم که بزرگسال هستید. اما هرگز نخواهیم خواست نام یا هویت واقعی شما را بدانیم.»
این تصمیم در حالی گرفته میشود که چندین ایالت در آمریکا و کشورهایی مثل بریتانیا، قوانین جدیدی برای تأیید سن کاربران شبکههای اجتماعی بهمنظور محافظت از کودکان وضع کردهاند.
با این حال، یکی از سخنگویان ردیت اعلام نکرد که دقیقاً در چه شرایطی این تأیید هویت لازم میشود. همچنین اشارهای به اینکه کدام سرویسهای شخص ثالث استفاده خواهند شد و چه نوع اطلاعاتی از کاربران دریافت خواهد شد، نکرد.
شرکتهای بسیاری این روزها از پلتفرمهای تأیید هویت مثل Persona، Alloy، Stripe Identity، Plaid و Footprint استفاده میکنند که معمولاً نیاز به کارت شناسایی رسمی دارند. از طرفی، تکنولوژیهای جدیدتری مثل ابزار اسکن چشم شرکت Tools for Humanity متعلق به سم آلتمن نیز در این حوزه فعالاند.
مخالفان این سیستمها نگران امنیت دادهها و حفظ حریم خصوصی هستند—ویژه در پلتفرمی مثل ردیت که بسیاری کاربران آن تجربیاتی را به اشتراک میگذارند که اگر هویتشان فاش شود، شاید هرگز جرئت بازگو کردنشان را نداشتند.
سناریویی دور از ذهن نیست که مثلاً دختری نوجوان در یکی از ایالتهای آمریکا، در انجمن r/women درباره تجربه سقط جنین سوالی مطرح کند و بعد، با حکم دادگاه، ردیت مجبور به افشای هویت او شود. مشابه این اتفاق برای شرکت متا افتاد که اطلاعات پیامهای خصوصی میان مادر و دخترش را به پلیس داد و باعث تشکیل پرونده قضایی علیه هر دو شد.
به همین دلیل است که ردیت قصد دارد از سرویسهای بیرونی کمک بگیرد تا فقط “اطلاعات ضروری و نه بیشتر” را دریافت کند. هافمن تأکید کرد که «ما هرگز نمیخواهیم نام یا هویت واقعی شما را بدانیم.»
او افزود: «ناشناس بودن، بخشی جدانشدنی از ردیت است» و همچنین اطمینان داد که این پلتفرم همچنان «بهشدت از اطلاعات کاربران محافظت خواهد کرد» و «در برابر درخواستهای بیمورد و بیشازحد از سوی نهادهای عمومی یا خصوصی مقاومت خواهد کرد.»