اخبار اینترنت

متا محدودیت‌های پیام‌رسانی نوجوانان و کنترل‌های والدین را سخت‌تر می‌کند

به گزارش اپ خونه، متا اعلام کرد که محدودیت‌های جدید DM را در فیس‌بوک و اینستاگرام برای نوجوانان اعمال می‌کند که مانع از ارسال پیام به نوجوانان می‌شود.

تا به حال، اینستاگرام بزرگسالان بالای ۱۸ سال را از ارسال پیام به نوجوانانی که آنها را فالو نمی کنند، محدود می کند.

محدودیت های جدید به طور پیش فرض برای همه کاربران زیر ۱۶ سال – و در برخی مناطق جغرافیایی زیر ۱۸ سال – اعمال می شود. متا گفت که با یک اعلان به کاربران فعلی اطلاع خواهد داد.

در مسنجر، کاربران فقط از دوستان فیس بوک یا افرادی که در مخاطبین خود دارند، پیام دریافت می کنند.

علاوه بر این، متا همچنین با اجازه دادن به سرپرستان برای اجازه یا رد تغییرات در تنظیمات حریم خصوصی پیش فرض ایجاد شده توسط نوجوانان، کنترل های والدین خود را قوی تر می کند.

قبلاً، وقتی نوجوانان این تنظیمات را تغییر می‌دادند، قیم‌ها اعلانی دریافت می‌کردند ، اما نمی‌توانستند هیچ اقدامی در مورد آنها انجام دهند.

این شرکت مثالی ارائه کرد که اگر یک کاربر نوجوان بخواهد حساب خود را از حالت خصوصی عمومی کند، کنترل محتوای حساس را از «کمتر» به «استاندارد» تغییر دهد، یا تلاش کند کنترل‌هایی را در مورد افرادی که می‌توانند به او پیام ارسال کنند تغییر دهد، سرپرستان می‌توانند او را مسدود کنند.

متا برای اولین بار در سال ۲۰۲۲ ابزارهای نظارت والدین را برای اینستاگرام عرضه کرد که به سرپرستان اجازه نظارت استفاده نوجوانان خود را می داد.

این غول رسانه‌های اجتماعی همچنین در حال برنامه‌ریزی برای راه‌اندازی قابلیتی است که از دیدن تصاویر ناخواسته و نامناسب نوجوانان در DM های ارسالی توسط افراد مرتبط با آنها جلوگیری می‌کند.

این شرکت اضافه کرد که این ویژگی در چت‌های رمزگذاری‌شده سرتاسر نیز کار می‌کند و نوجوانان را از ارسال این نوع تصاویر منصرف می‌کند.

متا مشخص نکرد که چه کاری برای اطمینان از حریم خصوصی نوجوانان در هنگام اجرای این ویژگی ها انجام می دهد. همچنین جزئیاتی در مورد آنچه که «نامناسب» می‌داند ارائه نکرده است.

در اوایل این ماه، متا ابزارهای جدیدی را برای محدود کردن نوجوانان از نگاه کردن به خودآزاری یا اختلالات خوردن در فیس بوک و اینستاگرام ارائه کرد .

ماه گذشته، متا یک درخواست رسمی برای اطلاعات از قانون‌گذاران اتحادیه اروپا دریافت کرد که از شرکت خواسته شد جزئیات بیشتری در مورد تلاش‌های شرکت در جلوگیری از به اشتراک‌گذاری مواد آزار کودکان (SG-CSAM) ارائه دهد.

در ماه اکتبر، بیش از ۴۰ ایالت آمریکا در دادگاه فدرال در کالیفرنیا شکایت کردند و این شرکت را متهم کردند که محصولاتی را به گونه‌ای طراحی می‌کند که به سلامت روان کودکان آسیب می‌رساند.

این شرکت قرار است در ۳۱ ژانویه سال جاری به همراه سایر شبکه های اجتماعی از جمله TikTok، Snap، Discord و X (توئیتر سابق) در برابر سنا در مورد مسائل مربوط به ایمنی کودکان شهادت دهد.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا