اتکای دولت آمریکا به هوش مصنوعی تشدید میشود
دولت آمریکا اعلام کرده قصد دارد اتکایش به هوش مصنوعی را گسترش دهد؛ این در حالی است که دولت این کشور سالها از تدوین سیاستهایی برای استفاده از این فناوری از بخش خصوصی عقب مانده است.
به گزارش خبرگزاری صداوسیما به نقل از سی ان ان، دفتر پاسخگویی دولت آمریکا (GAO) در گزارشی درباره تلاش کاخ سفید در این باره نوشت: فقدان استاندارد دولتی در زمینه فناوری هوش مصنوعی میتواند امنیت آمریکا را تضعیف کند.
بر اساس این گزارش ۹۶ صفحهای، تلاش دولت آمریکا برای فهرستبندی بیش از ۲۰۰ روشی است که سازمانهای غیرنظامی این کشور درباره آنها از هوش مصنوعی یا یادگیری ماشینی استفاده میکنند و بیش از ۵۰۰ برنامه هم برای ارتقای استفاده از فناوری هوش مصنوعی در حال تدوین است.
این در حالی است که توسعهدهندگان هوش مصنوعی، مدلهای پیچیدهتری را ابداع کردهاند و سیاستگذاران در تلاشند تا مقرراتی را برای صنعت هوش مصنوعی حتی در حساسترین موارد توسعه دهند.
دولتها در سراسر جهان بر مزایای هوش مصنوعی مانند ظرفیت آن برای یافتن روش درمان بیماریها یا افزایش بهرهوری تاکید کردهاند. اما در عین حال آنها نگران خطرات این فناوری از جمله خطر تعدیل نیروی کار، انتشار اطلاعات نادرست انتخاباتی یا آسیب رساندن به جوامع آسیبپذیر با سوگیریهای الگوریتمی هم هستند.
کارشناسان هشدار دادهاند که هوش مصنوعی حتی میتواند با ارائه روشهای جدید برای توسعه حملات سایبری یا سلاحهای بیولوژیکی، به عاملی مخرب و تهدید جدیدی برای امنیت ملی شود.
بر اساس این گزارش، دولت آمریکا در حال حاضر از هوش مصنوعی به ۲۲۸ روش متمایز استفاده میکند که تقریباً نیمی از این کاربردها در سال گذشته ایجاد شدهاند.
بیشتر استفادههای فعلی و برنامهریزیشده دولت آمریکا برای هوش مصنوعی که در گزارش GAO شناسایی آمده، یا مربوط به حوزههای علمی هستند یا برای بهبود مدیریت سازمانها در نظر گرفته شدهاند.
برای مثال، ناسا از هوش مصنوعی برای نظارت بر فعالیت آتشفشانها در سراسر جهان استفاده میکند، در حالی که وزارت امنیت داخلی از این فناوری برای شناسایی فعالیتهای مرزی بهره میبرد.
این گزارش همچنین صدها روشی را که آژانسهای فدرال از هوش مصنوعی به طور مخفیانه استفاده میکنند، نشان میدهد. در این گزارش آمده که آژانسهای فدرال میتوانستند حدود ۷۰ درصد از مجموع هزار و ۲۴۱ مورد استفاده فعال و برنامهریزی شده هوش مصنوعی را به صورت عمومی بازگو کنند، اما از مطرح کردن بیش از ۳۵۰ برنامه کاربردی این فناوری خودداری کردند، زیرا این موارد «حساس» تلقی میشدند.
برخی از آژانسها درباره کاربردهای هوش مصنوعی بسیار سختگیرانه برخورد میکردند. مثلا وزارت خارجه ۷۱ مورد مختلف استفاده از این فناوری را فهرست کرد، اما به GAO گفت که فقط میتواند ۱۰ مورد از آنها را به طور عمومی اعلام کند.
در همین حال کارشناسان حریم خصوصی و امنیت بارها هشدار دادهاند که اتکای بیش از حد به هوش مصنوعی در سازمانی مثل پلیس میتواند منجر به مواردی از تشخیص اشتباه هویت، بازداشت نادرست یا تبعیض علیه اقلیتها شود.
در حالی که مقامات آمریکایی به طور فزایندهای برای حل مشکلات مهم به هوش مصنوعی و تجزیه و تحلیل خودکار دادهها روی آوردهاند، اما دفتر مدیریت و بودجه که مسئول هماهنگکردن رویکرد آژانسهای فدرال درباره طیف وسیعی از مسائل در حیطه هوش مصنوعی است، هنوز پیشنویس سیاست دولت در این زمینه را نهایی نکرده است.
دفتر پاسخگویی دولت آمریکا نوشت: فقدان خط مشی و راهنما در حوزه فناوری هوش مصنوعی تا مدتها باعث شد که آژانسها به طور کامل اقدامات اساسی در مدیریت هوش مصنوعی را اجرا نکنند.
بر اساس این گزارش، طبق یک قانون فدرال که با حوزه هوش مصنوعی در امور دولت آمریکا سروکار دارد، دفتر مدیریت و بودجه دولت این کشور باید پیشنویس دستورالعملهای استفاده از هوش مصنوعی را تا سپتامبر ۲۰۲۱ (مهرماه ۱۴۰۰) برای آژانسها صادر میکرد، اما این فرصت را از دست داد و دو سال بعد در نوامبر ۲۰۲۳ (ماه گذشته) پیشنویس دستورالعمل خود را صادر کرد.
دفتر مدیریت و بودجه دولت آمریکا اعلام کرد که پیشنویس دستورالعملی که منتشر کرده، در راستای عمل به فرمان اجرایی رئیسجمهور این کشور درباره ایمنی هوش مصنوعی بود.
بر اساس دستورالعمل کاخ سفید، فرمان اجرایی اخیر هوش مصنوعی بایدن، توسعهدهندگان قویترین سیستمهای هوش مصنوعی را ملزم میکند که نتایج آزمایش مدلهای خود را با دولت به اشتراک بگذارند.
در این سال، تعدادی از شرکتهای پیشرو هوش مصنوعی نیز به دولت بایدن قول دادند که مدلهای هوش مصنوعی خود را قبل از انتشار عمومی آزمایش کنند.
دستور اجرایی بایدن مواردی را به مجموعه الزامات رو به رشد آژانسهای فدرال در خصوص سیاستهای هوش مصنوعی اضافه میکند. برای مثال، وزارت انرژی آمریکا موظف میشود پتانسیل هوش مصنوعی را برای تشخیص تهدیدات مربوط به سلاحهای شیمیایی، بیولوژیکی یا هستهای ارزیابی کند.
گزارش اخیر دفتر پاسخگویی دولت آمریکا فهرست جامعی از الزامات مرتبط با هوش مصنوعی را که کنگره یا کاخ سفید از سال ۲۰۱۹ بر آژانسهای فدرال تحمیل کردهاند، شناسایی و عملکرد آنها را درجهبندی کرد.
این گزارش علاوه بر مقصر دانستن دفتر مدیریت و بودجه دولت آمریکا به دلیل ناتوانی در ارائه یک برنامه دولتی برای هوش مصنوعی، کاستیهایی را در رویکردهای برخی سازمانها و نهادهای این کشور در مورد هوش مصنوعی احصا کرد.
طبق این گزارش، ۱۰ آژانس فدرال از وزارت خزانهداری گرفته تا وزارت آموزش، فاقد برنامههای لازم برای بهروزرسانی فهرست موارد استفاده از هوش مصنوعی در طول زمان بودند که میتواند مانع از درک عمومی از نحوه استفاده دولت از هوش مصنوعی شود.