استارتاپ

Anthropic اکنون به بچه‌ها اجازه می‌دهد از فناوری هوش مصنوعی خود – در محدوده‌های محدود- استفاده کنند

به گزارش اپ خونه، استارت‌آپ هوش مصنوعی Anthropic سیاست‌های خود را تغییر می‌دهد تا به خردسالان اجازه دهد تا از سیستم‌های هوش مصنوعی مولد آن حداقل در شرایط خاص استفاده کنند .

در پستی در وبلاگ رسمی این شرکت اعلام شد، Anthropic به نوجوانان اجازه استفاده از برنامه‌های شخص ثالث (اما نه لزوما برنامه‌های خودش ) با مدل‌های هوش مصنوعی خود را می‌دهد تا زمانی که توسعه‌دهندگان آن برنامه‌ها ویژگی‌های ایمنی خاصی را اجرا کنند و به کاربران نشان دهد که از کدام فناوری های Anthropic استفاده می کنند.

در یک مقاله، Anthropic چندین اقدام ایمنی را فهرست می‌کند که توسعه‌دهندگان برنامه‌های مبتنی بر هوش مصنوعی برای افراد زیر سن قانونی ایجاد می‌کنند، مانند سیستم‌های تأیید سن، تعدیل محتوا و فیلتر کردن و منابع آموزشی در مورد استفاده «ایمن و مسئولانه» هوش مصنوعی برای خردسالان.

این شرکت همچنین می‌گوید که ممکن است اقدامات فنی را با هدف تطبیق تجربیات محصول هوش مصنوعی برای خردسالان در دسترس قرار دهد، مانند «اعلام سیستم ایمنی کودک» که توسعه‌دهندگانی که خردسالان را هدف قرار می‌دهند ملزم به اجرای آن هستند.

توسعه دهندگانی که از مدل‌های هوش مصنوعی Anthropic استفاده می‌کنند همچنین باید از مقررات «قابل اجرا» ایمنی کودکان و حفظ حریم خصوصی داده‌ها مانند قانون حفاظت از حریم خصوصی آنلاین کودکان (COPPA)، قانون فدرال ایالات متحده که از حریم خصوصی آنلاین کودکان زیر ۱۳ سال محافظت می‌کند، پیروی کنند.

“برنامه‌ها را به‌طور دوره‌ای از نظر انطباق ممیزی کنید، حساب‌های افرادی را که مکرراً الزامات انطباق را نقض می‌کنند، به حالت تعلیق درآورید یا خاتمه دهید، و برنامه‌نویسان را موظف کنید که در سایت‌ها یا اسنادی که در معرض دید عموم قرار دارند، به وضوح اعلام کنند که با قانون مطابقت دارند.”

Anthropic در این پست می نویسد: موارد استفاده خاصی وجود دارد که ابزارهای هوش مصنوعی می توانند مزایای قابل توجهی را برای کاربران جوان تر ارائه دهند، مانند آماده سازی آزمون یا پشتیبانی آموزشی. با در نظر گرفتن این موضوع، خط مشی به روز شده ما به سازمان ها اجازه می دهد تا API ما را در محصولات خود برای خردسالان بگنجانند.

تغییر خط مشی Anthropic در حالی رخ می دهد که کودکان و نوجوانان به طور فزاینده ای به ابزارهای هوش مصنوعی مولد برای کمک نه تنها در مورد تکالیف مدرسه ، بلکه مسائل شخصی روی می آورند، به همین دلیل فروشندگان رقیب هوش مصنوعی – از جمله گوگل و OpenAI – در حال بررسی موارد استفاده بیشتر با هدف کودکان هستند.

امسال، OpenAI تیم جدیدی را برای مطالعه ایمنی کودکان تشکیل داد و اعلام کرد که با Common Sense Media برای همکاری در دستورالعمل‌های هوش مصنوعی مناسب برای کودکان همکاری می‌کند.

گوگل نیز چت ربات خود Bard را که به جمینی تغییر نام داد، در دسترس نوجوانان به زبان انگلیسی در مناطق منتخب قرار داد.

بر اساس یک نظرسنجی، ۲۹ درصد از بچه ها گزارش داده اند که از هوش مصنوعی مولد مانند ChatGPT’s OpenAI برای مقابله با مشکلات اضطراب یا سلامت روان، ۲۲ درصد برای مسائل با دوستان و ۱۶ درصد برای درگیری های خانوادگی استفاده کرده اند.

تابستان گذشته، مدارس و کالج‌ها به دلیل ترس از سرقت ادبی و اطلاعات نادرست، عجله کردند تا برنامه‌های هوش مصنوعی تولیدی – به ویژه ChatGPT را ممنوع کنند.

اما همه از پتانسیل هوش مصنوعی مولد برای خوب بودن متقاعد نشده اند، با اشاره به نظرسنجی هایی مانند مرکز اینترنت ایمن بریتانیا، که نشان می دهد بیش از نیمی از بچه ها (۵۳ درصد) گزارش می دهند که افراد هم سن و سال خود را دیده اند که از هوش مصنوعی مولد به شکلی منفی استفاده می کنند.

درخواست ها برای دستورالعمل ها در مورد استفاده کودکان از هوش مصنوعی مولد در حال افزایش است.

سازمان آموزشی، علمی و فرهنگی ملل متحد (یونسکو) اواخر سال گذشته به دولت‌ها فشار آورد تا استفاده از هوش مصنوعی مولد در آموزش را تنظیم کنند، از جمله اجرای محدودیت‌های سنی برای کاربران و نرده‌های محافظ برای حفاظت از داده‌ها و حریم خصوصی کاربران.

آدری آزولای، مدیر کل یونسکو در بیانیه ای مطبوعاتی گفت:

“هوش مصنوعی مولد می تواند فرصتی فوق العاده برای توسعه انسانی باشد، اما همچنین می تواند باعث آسیب و تعصب شود. بدون مشارکت عمومی و تدابیر و مقررات لازم از سوی دولت‌ها نمی‌توان آن را در آموزش ادغام کرد.»

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا