Anthropic اکنون به بچهها اجازه میدهد از فناوری هوش مصنوعی خود – در محدودههای محدود- استفاده کنند
به گزارش اپ خونه، استارتآپ هوش مصنوعی Anthropic سیاستهای خود را تغییر میدهد تا به خردسالان اجازه دهد تا از سیستمهای هوش مصنوعی مولد آن حداقل در شرایط خاص استفاده کنند .
در پستی در وبلاگ رسمی این شرکت اعلام شد، Anthropic به نوجوانان اجازه استفاده از برنامههای شخص ثالث (اما نه لزوما برنامههای خودش ) با مدلهای هوش مصنوعی خود را میدهد تا زمانی که توسعهدهندگان آن برنامهها ویژگیهای ایمنی خاصی را اجرا کنند و به کاربران نشان دهد که از کدام فناوری های Anthropic استفاده می کنند.
در یک مقاله، Anthropic چندین اقدام ایمنی را فهرست میکند که توسعهدهندگان برنامههای مبتنی بر هوش مصنوعی برای افراد زیر سن قانونی ایجاد میکنند، مانند سیستمهای تأیید سن، تعدیل محتوا و فیلتر کردن و منابع آموزشی در مورد استفاده «ایمن و مسئولانه» هوش مصنوعی برای خردسالان.
این شرکت همچنین میگوید که ممکن است اقدامات فنی را با هدف تطبیق تجربیات محصول هوش مصنوعی برای خردسالان در دسترس قرار دهد، مانند «اعلام سیستم ایمنی کودک» که توسعهدهندگانی که خردسالان را هدف قرار میدهند ملزم به اجرای آن هستند.
توسعه دهندگانی که از مدلهای هوش مصنوعی Anthropic استفاده میکنند همچنین باید از مقررات «قابل اجرا» ایمنی کودکان و حفظ حریم خصوصی دادهها مانند قانون حفاظت از حریم خصوصی آنلاین کودکان (COPPA)، قانون فدرال ایالات متحده که از حریم خصوصی آنلاین کودکان زیر ۱۳ سال محافظت میکند، پیروی کنند.
“برنامهها را بهطور دورهای از نظر انطباق ممیزی کنید، حسابهای افرادی را که مکرراً الزامات انطباق را نقض میکنند، به حالت تعلیق درآورید یا خاتمه دهید، و برنامهنویسان را موظف کنید که در سایتها یا اسنادی که در معرض دید عموم قرار دارند، به وضوح اعلام کنند که با قانون مطابقت دارند.”
Anthropic در این پست می نویسد: موارد استفاده خاصی وجود دارد که ابزارهای هوش مصنوعی می توانند مزایای قابل توجهی را برای کاربران جوان تر ارائه دهند، مانند آماده سازی آزمون یا پشتیبانی آموزشی. با در نظر گرفتن این موضوع، خط مشی به روز شده ما به سازمان ها اجازه می دهد تا API ما را در محصولات خود برای خردسالان بگنجانند.
تغییر خط مشی Anthropic در حالی رخ می دهد که کودکان و نوجوانان به طور فزاینده ای به ابزارهای هوش مصنوعی مولد برای کمک نه تنها در مورد تکالیف مدرسه ، بلکه مسائل شخصی روی می آورند، به همین دلیل فروشندگان رقیب هوش مصنوعی – از جمله گوگل و OpenAI – در حال بررسی موارد استفاده بیشتر با هدف کودکان هستند.
امسال، OpenAI تیم جدیدی را برای مطالعه ایمنی کودکان تشکیل داد و اعلام کرد که با Common Sense Media برای همکاری در دستورالعملهای هوش مصنوعی مناسب برای کودکان همکاری میکند.
گوگل نیز چت ربات خود Bard را که به جمینی تغییر نام داد، در دسترس نوجوانان به زبان انگلیسی در مناطق منتخب قرار داد.
بر اساس یک نظرسنجی، ۲۹ درصد از بچه ها گزارش داده اند که از هوش مصنوعی مولد مانند ChatGPT’s OpenAI برای مقابله با مشکلات اضطراب یا سلامت روان، ۲۲ درصد برای مسائل با دوستان و ۱۶ درصد برای درگیری های خانوادگی استفاده کرده اند.
تابستان گذشته، مدارس و کالجها به دلیل ترس از سرقت ادبی و اطلاعات نادرست، عجله کردند تا برنامههای هوش مصنوعی تولیدی – به ویژه ChatGPT را ممنوع کنند.
اما همه از پتانسیل هوش مصنوعی مولد برای خوب بودن متقاعد نشده اند، با اشاره به نظرسنجی هایی مانند مرکز اینترنت ایمن بریتانیا، که نشان می دهد بیش از نیمی از بچه ها (۵۳ درصد) گزارش می دهند که افراد هم سن و سال خود را دیده اند که از هوش مصنوعی مولد به شکلی منفی استفاده می کنند.
درخواست ها برای دستورالعمل ها در مورد استفاده کودکان از هوش مصنوعی مولد در حال افزایش است.
سازمان آموزشی، علمی و فرهنگی ملل متحد (یونسکو) اواخر سال گذشته به دولتها فشار آورد تا استفاده از هوش مصنوعی مولد در آموزش را تنظیم کنند، از جمله اجرای محدودیتهای سنی برای کاربران و نردههای محافظ برای حفاظت از دادهها و حریم خصوصی کاربران.
آدری آزولای، مدیر کل یونسکو در بیانیه ای مطبوعاتی گفت:
“هوش مصنوعی مولد می تواند فرصتی فوق العاده برای توسعه انسانی باشد، اما همچنین می تواند باعث آسیب و تعصب شود. بدون مشارکت عمومی و تدابیر و مقررات لازم از سوی دولتها نمیتوان آن را در آموزش ادغام کرد.»