لاکشمی رامان، مدیر هوش مصنوعی CIA، مدعی است که این سازمان رویکردی مدبرانه به هوش مصنوعی در پیش گرفته است
به گزارش اپ خونه، بهعنوان بخشی از مجموعههای جاری «زنان در هوش مصنوعی» TechCrunch ، که میخواهد به زنان دانشگاهی و سایر زنان متمرکز بر هوش مصنوعی در کانون توجه باشد، TechCrunch با لاکشمی رامان، مدیر هوش مصنوعی در CIA مصاحبه کرد.
او در مورد مسیرش به سمت مدیریت و همچنین استفاده CIA از هوش مصنوعی، و تعادلی که باید بین پذیرش فناوری جدید و در عین حال استقرار مسئولانه آن ایجاد شود، صحبت کرد.
رامان برای مدت طولانی در هوش مصنوعی بوده است. او در سال ۲۰۰۲ به عنوان توسعهدهنده نرمافزار به سازمان CIA پیوست. چندین سال بعد، او به مدیریت در آژانس رفت و در نهایت به رهبری تلاشهای کلی اطلاعات سازمانی CIA ادامه داد.
رامان میگوید که با توجه به ردههای مردانه در این حوزه که از لحاظ تاریخی در این حوزه اطلاعاتی وجود داشت، خوششانس بود که الگوهای زنان و پیشینیان خود را به عنوان منبعی در CIA داشت.
او گفت: “هنوز افرادی را دارم که می توانم به آنها مراجعه کنم، می توانم از آنها مشاوره بخواهم، و می توانم در مورد اینکه سطح بعدی رهبری چگونه به نظر می رسد، نزدیک شوم. من فکر می کنم چیزهایی وجود دارد که هر زن باید در مسیر حرفه ای خود از آنها عبور کند.”
هوش مصنوعی به عنوان یک ابزار اطلاعاتی
رامان در نقش خود به عنوان مدیر، فعالیت های هوش مصنوعی را در سرتاسر CIA هماهنگ، ادغام و هدایت می کند.
او گفت: “ما فکر می کنیم که هوش مصنوعی اینجاست تا از ماموریت ما پشتیبانی کند. انسان ها و ماشین ها با هم در خط مقدم استفاده ما از هوش مصنوعی قرار دارند.”
هوش مصنوعی برای CIA تازگی ندارد. رامان می گوید که آژانس از حدود سال ۲۰۰۰ در حال بررسی کاربردهای علم داده و هوش مصنوعی ، به ویژه در زمینه های پردازش زبان طبیعی (یعنی تجزیه و تحلیل متن)، بینایی کامپیوتر (تجزیه و تحلیل تصاویر) و تجزیه و تحلیل ویدئو است.
او افزود، CIA با نقشه راهی که هم از سوی صنعت و هم از سوی دانشگاه ها تهیه شده است، تلاش می کند تا در راس روندهای جدیدتر مانند هوش مصنوعی مولد باقی بماند.
رامان گفت:
«وقتی به حجم عظیمی از دادههایی که باید در آژانس مصرف کنیم فکر میکنیم، تریاژ محتوا حوزهای است که هوش مصنوعی مولد میتواند تفاوت ایجاد کند. ما به چیزهایی مانند کمک جستجو و کشف، کمک ایدهپردازی و کمک به ما برای ایجاد استدلالهای متقابل برای کمک به مقابله با سوگیری تحلیلی که ممکن است داشته باشیم، نگاه میکنیم.»
جامعه اطلاعاتی ایالات متحده برای استقرار هر ابزاری که ممکن است به CIA در مقابله با تنشهای ژئوپلیتیکی فزاینده در سراسر جهان کمک کند، استقبال می کند.
سال گذشته، پروژه مطالعات رقابتی ویژه، یک گروه مشاوره قدرتمند با تمرکز بر هوش مصنوعی در امنیت ملی، یک جدول زمانی دو ساله را برای سرویسهای اطلاعاتی داخلی تعیین کرد تا از آزمایش فراتر رفته و پروژههای آزمایشی محدودی را برای پذیرش هوش مصنوعی مولد در مقیاس محدود کنند.
یکی از ابزارهای مولد مبتنی بر هوش مصنوعی که CIA توسعه داده است، Osiris، کمی شبیه ChatGPT OpenAI است، اما برای موارد استفاده اطلاعاتی سفارشی شده است.
این ابزار دادهها را خلاصه میکند – در حال حاضر، فقط دادههای طبقهبندینشده و عمومی یا تجاری در دسترس است – و به تحلیلگران اجازه میدهد تا با پرسیدن سؤالات به زبان انگلیسی ساده، عمیقتر شوند.
Osiris اکنون توسط هزاران تحلیلگر نه تنها در داخل دیوارهای CIA ، بلکه در سراسر ۱۸ سازمان اطلاعاتی ایالات متحده مورد استفاده قرار می گیرد.
رامان فاش نکرد که آیا آن را در داخل توسعه دادهاند یا از فناوری شرکتهای شخص ثالث استفاده میکنند، اما گفت که CIA با فروشندگان به نام تجاری شراکت دارد.
رامان گفت: «ما از خدمات تجاری استفاده می کنیم. ما باید بتوانیم از نزدیک با صنعت خصوصی کار کنیم تا به ما کمک کنند نه تنها خدمات و راهحلهای بزرگتری را که در مورد آنها شنیدهاید، بلکه حتی خدمات ویژهتری را از فروشندگان غیر سنتی ارائه کنیم که ممکن است قبلاً به آنها فکر نکرده باشید. “
یک تکنولوژی پر دردسر
دلایل زیادی برای تردید و نگرانی در مورد استفاده CIA از هوش مصنوعی وجود دارد.
در فوریه ۲۰۲۲، سناتورهای ران وایدن (D-OR) و مارتین هاینریش (D-New Mexico) در نامه ای عمومی فاش کردند که CIA ، علیرغم اینکه به طور کلی از تحقیق در مورد آمریکایی ها و مشاغل آمریکایی منع شده است، یک مخزن داده های مخفی و فاش نشده دارد که شامل اطلاعات جمع آوری شده در مورد شهروندان ایالات متحده دارد.
و سال گذشته، گزارشی از دفتر مدیر اطلاعات ملی نشان داد که سازمانهای اطلاعاتی ایالات متحده، از جمله CIA ، دادههای آمریکاییها را از دلالهای داده مانند LexisNexis و Sayari Analytics با نظارت کمی خریداری میکنند.
اگر CIA از هوش مصنوعی برای بررسی این داده ها استفاده می کرد، مطمئناً بسیاری از آمریکایی ها مخالفت می کردند. این نقض آشکار آزادیهای مدنی است و به دلیل محدودیتهای هوش مصنوعی، میتواند منجر به نتایج جدی ناعادلانه شود.
چندین مطالعه نشان دادهاند که الگوریتمهای جرم و جنایت پیشبینیکننده از شرکتهایی مانند Geolitica به راحتی با نرخ دستگیری منحرف میشوند و تمایل دارند به طور نامتناسبی جوامع سیاهپوست را علامتگذاری کنند.
مطالعات دیگر حاکی از آن است که تشخیص چهره منجر به شناسایی نادرست رنگین پوستان نسبت به افراد سفیدپوست می شود.
علاوه بر تعصب، حتی بهترین هوش مصنوعی امروزی هم توهم می زند ، یا حقایق و ارقام را در پاسخ به پرسش ها اختراع می کند.
برای مثال، نرمافزار خلاصهسازی جلسات مایکروسافت را در نظر بگیرید، که گهگاه نقل قولها را به افراد ناموجود نسبت میدهد . می توان تصور کرد که چگونه این ممکن است در کارهای اطلاعاتی به مشکل تبدیل شود، جایی که دقت و تایید پذیری در اولویت است.
رامان مصمم بود که CIA نه تنها از تمام قوانین ایالات متحده پیروی می کند، بلکه از “همه دستورالعمل های اخلاقی پیروی می کند” و از هوش مصنوعی “به گونه ای استفاده می کند که تعصبات را کاهش دهد.”
او گفت: «من آن را رویکردی متفکرانه [به هوش مصنوعی] می نامم. من میگویم رویکردی که ما در پیش گرفتهایم، رویکردی است که میخواهیم کاربرانمان تا آنجا که میتوانند درباره سیستم هوش مصنوعی که استفاده میکنند، بفهمند. ساختن هوش مصنوعی مسئول به این معنی است که ما به مشارکت همه سهامداران نیاز داریم. این به معنای توسعه دهندگان هوش مصنوعی، یعنی دفتر حریم خصوصی و آزادی های مدنی ما است .»
به نظر رامان، صرف نظر از اینکه یک سیستم هوش مصنوعی برای انجام چه کاری طراحی شده است، مهم است که طراحان این سیستم، مناطقی را که ممکن است در آنها کوتاهی کند، روشن کنند.
در یک مطالعه اخیر، محققان دانشگاه ایالتی کارولینای شمالی دریافتند که ابزارهای هوش مصنوعی، از جمله تشخیص چهره و الگوریتمهای تشخیص تیراندازی، توسط پلیسهایی که با فناوریها یا کاستیهای آنها آشنایی نداشتند، استفاده میشوند .
در نمونهای فاحش از سوء استفاده از هوش مصنوعی مجری قانون که احتمالاً ناشی از ناآگاهی است، گزارش شده است که پلیس نیویورک یک بار از عکسهای افراد مشهور ، تصاویر تحریف شده و طرحها برای ایجاد تطابق تشخیص چهره در مظنونان در مواردی که عکسهای نظارتی هیچ نتیجهای نداشت، استفاده میکرد.
رامان گفت:
«هر خروجی ای که هوش مصنوعی تولید می کند باید به وضوح توسط کاربران درک شود، و این به معنای مشخصا برچسب گذاری محتوای تولید شده توسط هوش مصنوعی و ارائه توضیحات واضح در مورد نحوه عملکرد سیستم های هوش مصنوعی است. هر کاری که در آژانس انجام میدهیم، به الزامات قانونی خود پایبند هستیم، و اطمینان میدهیم که کاربران، شرکا و ذینفعان ما از تمام قوانین، مقررات و دستورالعملهای مربوطه حاکم بر استفاده از سیستمهای هوش مصنوعی ما آگاه هستند. ما همه این قوانین را رعایت می کنیم.»