هوش مصنوعی

لاکشمی رامان، مدیر هوش مصنوعی CIA، مدعی است که این سازمان رویکردی مدبرانه به هوش مصنوعی در پیش گرفته است

به گزارش اپ خونه، به‌عنوان بخشی از مجموعه‌های جاری «زنان در هوش مصنوعی» TechCrunch ، که می‌خواهد به زنان دانشگاهی و سایر زنان متمرکز بر هوش مصنوعی در کانون توجه باشد، TechCrunch با لاکشمی رامان، مدیر هوش مصنوعی در CIA مصاحبه کرد.

او در مورد مسیرش به سمت مدیریت و همچنین استفاده CIA از هوش مصنوعی، و تعادلی که باید بین پذیرش فناوری جدید و در عین حال استقرار مسئولانه آن ایجاد شود، صحبت کرد.

رامان برای مدت طولانی در هوش مصنوعی بوده است. او در سال ۲۰۰۲ به عنوان توسعه‌دهنده نرم‌افزار به سازمان CIA پیوست. چندین سال بعد، او به مدیریت در آژانس رفت و در نهایت به رهبری تلاش‌های کلی اطلاعات سازمانی CIA ادامه داد.

رامان می‌گوید که با توجه به رده‌های مردانه در این حوزه که از لحاظ تاریخی در این حوزه اطلاعاتی وجود داشت، خوش‌شانس بود که الگوهای زنان و پیشینیان خود را به عنوان منبعی در CIA داشت.

او گفت: “هنوز افرادی را دارم که می توانم به آنها مراجعه کنم، می توانم از آنها مشاوره بخواهم، و می توانم در مورد اینکه سطح بعدی رهبری چگونه به نظر می رسد، نزدیک شوم. من فکر می کنم چیزهایی وجود دارد که هر زن باید در مسیر حرفه ای خود از آنها عبور کند.”

هوش مصنوعی به عنوان یک ابزار اطلاعاتی

رامان در نقش خود به عنوان مدیر، فعالیت های هوش مصنوعی را در سرتاسر CIA هماهنگ، ادغام و هدایت می کند.

او گفت: “ما فکر می کنیم که هوش مصنوعی اینجاست تا از ماموریت ما پشتیبانی کند. انسان ها و ماشین ها با هم در خط مقدم استفاده ما از هوش مصنوعی قرار دارند.”

هوش مصنوعی برای CIA تازگی ندارد. رامان می گوید که آژانس از حدود سال ۲۰۰۰ در حال بررسی کاربردهای علم داده و هوش مصنوعی ، به ویژه در زمینه های پردازش زبان طبیعی (یعنی تجزیه و تحلیل متن)، بینایی کامپیوتر (تجزیه و تحلیل تصاویر) و تجزیه و تحلیل ویدئو است.

او افزود، CIA با نقشه راهی که هم از سوی صنعت و هم از سوی دانشگاه ها تهیه شده است، تلاش می کند تا در راس روندهای جدیدتر مانند هوش مصنوعی مولد باقی بماند.

رامان گفت:

«وقتی به حجم عظیمی از داده‌هایی که باید در آژانس مصرف کنیم فکر می‌کنیم، تریاژ محتوا حوزه‌ای است که هوش مصنوعی مولد می‌تواند تفاوت ایجاد کند. ما به چیزهایی مانند کمک جستجو و کشف، کمک ایده‌پردازی و کمک به ما برای ایجاد استدلال‌های متقابل برای کمک به مقابله با سوگیری تحلیلی که ممکن است داشته باشیم، نگاه می‌کنیم.»

جامعه اطلاعاتی ایالات متحده برای استقرار هر ابزاری که ممکن است به CIA در مقابله با تنش‌های ژئوپلیتیکی فزاینده در سراسر جهان کمک کند، استقبال می کند.

سال گذشته، پروژه مطالعات رقابتی ویژه، یک گروه مشاوره قدرتمند با تمرکز بر هوش مصنوعی در امنیت ملی، یک جدول زمانی دو ساله را برای سرویس‌های اطلاعاتی داخلی تعیین کرد تا از آزمایش فراتر رفته و پروژه‌های آزمایشی محدودی را برای پذیرش هوش مصنوعی مولد در مقیاس محدود کنند.

یکی از ابزارهای مولد مبتنی بر هوش مصنوعی که CIA توسعه داده است، Osiris، کمی شبیه ChatGPT OpenAI است، اما برای موارد استفاده اطلاعاتی سفارشی شده است.

این ابزار داده‌ها را خلاصه می‌کند – در حال حاضر، فقط داده‌های طبقه‌بندی‌نشده و عمومی یا تجاری در دسترس است – و به تحلیل‌گران اجازه می‌دهد تا با پرسیدن سؤالات به زبان انگلیسی ساده، عمیق‌تر شوند.

Osiris اکنون توسط هزاران تحلیلگر نه تنها در داخل دیوارهای CIA ، بلکه در سراسر ۱۸ سازمان اطلاعاتی ایالات متحده مورد استفاده قرار می گیرد.

رامان فاش نکرد که آیا آن را در داخل توسعه داده‌اند یا از فناوری شرکت‌های شخص ثالث استفاده می‌کنند، اما گفت که CIA با فروشندگان به نام تجاری شراکت دارد.

رامان گفت: «ما از خدمات تجاری استفاده می کنیم. ما باید بتوانیم از نزدیک با صنعت خصوصی کار کنیم تا به ما کمک کنند نه تنها خدمات و راه‌حل‌های بزرگ‌تری را که در مورد آنها شنیده‌اید، بلکه حتی خدمات ویژه‌تری را از فروشندگان غیر سنتی ارائه کنیم که ممکن است قبلاً به آنها فکر نکرده باشید. “

یک تکنولوژی پر دردسر

دلایل زیادی برای تردید و نگرانی در مورد استفاده CIA از هوش مصنوعی وجود دارد.

در فوریه ۲۰۲۲، سناتورهای ران وایدن (D-OR) و مارتین هاینریش (D-New Mexico) در نامه ای عمومی فاش کردند که CIA ، علیرغم اینکه به طور کلی از تحقیق در مورد آمریکایی ها و مشاغل آمریکایی منع شده است، یک مخزن داده های مخفی و فاش نشده دارد که شامل اطلاعات جمع آوری شده در مورد شهروندان ایالات متحده دارد.

و سال گذشته، گزارشی از دفتر مدیر اطلاعات ملی نشان داد که سازمان‌های اطلاعاتی ایالات متحده، از جمله CIA ، داده‌های آمریکایی‌ها را از دلال‌های داده مانند LexisNexis و Sayari Analytics با نظارت کمی خریداری می‌کنند.

اگر CIA از هوش مصنوعی برای بررسی این داده ها استفاده می کرد، مطمئناً بسیاری از آمریکایی ها مخالفت می کردند. این نقض آشکار آزادی‌های مدنی است و به دلیل محدودیت‌های هوش مصنوعی، می‌تواند منجر به نتایج جدی ناعادلانه شود.

چندین مطالعه نشان داده‌اند که الگوریتم‌های جرم و جنایت پیش‌بینی‌کننده از شرکت‌هایی مانند Geolitica به راحتی با نرخ دستگیری منحرف می‌شوند و تمایل دارند به طور نامتناسبی جوامع سیاه‌پوست را علامت‌گذاری کنند.

مطالعات دیگر حاکی از آن است که تشخیص چهره منجر به شناسایی نادرست رنگین پوستان نسبت به افراد سفیدپوست می شود.

علاوه بر تعصب، حتی بهترین هوش مصنوعی امروزی هم توهم می زند ، یا حقایق و ارقام را در پاسخ به پرسش ها اختراع می کند.

برای مثال، نرم‌افزار خلاصه‌سازی جلسات مایکروسافت را در نظر بگیرید، که گهگاه نقل قول‌ها را به افراد ناموجود نسبت می‌دهد . می توان تصور کرد که چگونه این ممکن است در کارهای اطلاعاتی به مشکل تبدیل شود، جایی که دقت و تایید پذیری در اولویت است.

رامان مصمم بود که CIA نه تنها از تمام قوانین ایالات متحده پیروی می کند، بلکه از “همه دستورالعمل های اخلاقی پیروی می کند” و از هوش مصنوعی “به گونه ای استفاده می کند که تعصبات را کاهش دهد.”

او گفت: «من آن را رویکردی متفکرانه [به هوش مصنوعی] می نامم. من می‌گویم رویکردی که ما در پیش گرفته‌ایم، رویکردی است که می‌خواهیم کاربرانمان تا آنجا که می‌توانند درباره سیستم هوش مصنوعی که استفاده می‌کنند، بفهمند. ساختن هوش مصنوعی مسئول به این معنی است که ما به مشارکت همه سهامداران نیاز داریم. این به معنای توسعه دهندگان هوش مصنوعی، یعنی دفتر حریم خصوصی و آزادی های مدنی ما است .»

به نظر رامان، صرف نظر از اینکه یک سیستم هوش مصنوعی برای انجام چه کاری طراحی شده است، مهم است که طراحان این سیستم، مناطقی را که ممکن است در آنها کوتاهی کند، روشن کنند.

در یک مطالعه اخیر، محققان دانشگاه ایالتی کارولینای شمالی دریافتند که ابزارهای هوش مصنوعی، از جمله تشخیص چهره و الگوریتم‌های تشخیص تیراندازی، توسط پلیس‌هایی که با فناوری‌ها یا کاستی‌های آن‌ها آشنایی نداشتند، استفاده می‌شوند .

در نمونه‌ای فاحش از سوء استفاده از هوش مصنوعی مجری قانون که احتمالاً ناشی از ناآگاهی است، گزارش شده است که پلیس نیویورک یک بار از عکس‌های افراد مشهور ، تصاویر تحریف شده و طرح‌ها برای ایجاد تطابق تشخیص چهره در مظنونان در مواردی که عکس‌های نظارتی هیچ نتیجه‌ای نداشت، استفاده می‌کرد.

رامان گفت:

«هر خروجی ای که هوش مصنوعی تولید می کند باید به وضوح توسط کاربران درک شود، و این به معنای مشخصا برچسب گذاری محتوای تولید شده توسط هوش مصنوعی و ارائه توضیحات واضح در مورد نحوه عملکرد سیستم های هوش مصنوعی است. هر کاری که در آژانس انجام می‌دهیم، به الزامات قانونی خود پایبند هستیم، و اطمینان می‌دهیم که کاربران، شرکا و ذینفعان ما از تمام قوانین، مقررات و دستورالعمل‌های مربوطه حاکم بر استفاده از سیستم‌های هوش مصنوعی ما آگاه هستند. ما همه این قوانین را رعایت می کنیم.»

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا