ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

دولت آمریکا اعلام کرده قصد دارد اتکایش به هوش مصنوعی را گسترش دهد؛ این در حالی است که دولت این کشور سال‌ها از تدوین سیاست‌هایی برای استفاده از این فناوری از بخش خصوصی عقب مانده است.
به گزارش خبرگزاری صداوسیما به نقل از سی ان ان، دفتر پاسخگویی دولت آمریکا (GAO) در گزارشی درباره تلاش کاخ سفید در این باره نوشت: فقدان استاندارد دولتی در زمینه فناوری هوش مصنوعی می‌تواند امنیت آمریکا را تضعیف کند. 
 بر اساس این گزارش ۹۶ صفحه‌ای، تلاش دولت آمریکا برای فهرست‌بندی بیش از ۲۰۰ روشی است که سازمان‌های غیرنظامی این کشور درباره آن‌ها از هوش مصنوعی یا یادگیری ماشینی استفاده می‌کنند و بیش از ۵۰۰ برنامه هم برای ارتقای استفاده از فناوری هوش مصنوعی در حال تدوین است.
 این در حالی است که توسعه‌دهندگان هوش مصنوعی، مدل‌های پیچیده‌تری را ابداع کرده‌اند و سیاست‌گذاران در تلاشند تا مقرراتی را برای صنعت هوش مصنوعی حتی در حساس‌ترین موارد توسعه دهند.
 دولت‌ها در سراسر جهان بر مزایای هوش مصنوعی مانند ظرفیت آن برای یافتن روش درمان بیماری‌ها یا افزایش بهره‌وری تاکید کرده‌اند. اما در عین حال آن‌ها نگران خطرات این فناوری از جمله خطر تعدیل نیروی کار، انتشار اطلاعات نادرست انتخاباتی یا آسیب رساندن به جوامع آسیب‌پذیر با سوگیری‌های الگوریتمی هم هستند.
 کارشناسان هشدار داده‌اند که هوش مصنوعی حتی می‌تواند با ارائه روش‌های جدید برای توسعه حملات سایبری یا سلاح‌های بیولوژیکی، به عاملی مخرب و تهدید جدیدی برای امنیت ملی شود. 
بر اساس این گزارش، دولت آمریکا در حال حاضر از هوش مصنوعی به ۲۲۸ روش متمایز استفاده می‌کند که تقریباً نیمی از این کاربرد‌ها در سال گذشته ایجاد شده‌اند.
 بیشتر استفاده‌های فعلی و برنامه‌ریزی‌شده دولت آمریکا برای هوش مصنوعی که در گزارش GAO شناسایی آمده، یا مربوط به حوزه‌های علمی هستند یا برای بهبود مدیریت سازمان‌ها در نظر گرفته شده‌اند. 
برای مثال، ناسا از هوش مصنوعی برای نظارت بر فعالیت آتشفشان‌ها در سراسر جهان استفاده می‌کند، در حالی که وزارت امنیت داخلی از این فناوری برای شناسایی فعالیت‌های مرزی بهره می‌برد. 
این گزارش همچنین صد‌ها روشی را که آژانس‌های فدرال از هوش مصنوعی به طور مخفیانه استفاده می‌کنند، نشان می‌دهد. در این گزارش آمده که آژانس‌های فدرال می‌توانستند حدود ۷۰ درصد از مجموع هزار و ۲۴۱ مورد استفاده فعال و برنامه‌ریزی شده هوش مصنوعی را به صورت عمومی بازگو کنند، اما از مطرح کردن بیش از ۳۵۰ برنامه کاربردی این فناوری خودداری کردند، زیرا این موارد «حساس» تلقی می‌شدند. 
برخی از آژانس‌ها درباره کاربرد‌های هوش مصنوعی بسیار سخت‌گیرانه برخورد می‌کردند. مثلا وزارت خارجه ۷۱ مورد مختلف استفاده از این فناوری را فهرست کرد، اما به GAO گفت که فقط می‌تواند ۱۰ مورد از آن‌ها را به طور عمومی اعلام کند. 
در همین حال کارشناسان حریم خصوصی و امنیت بار‌ها هشدار داده‌اند که اتکای بیش از حد به هوش مصنوعی در سازمانی مثل پلیس می‌تواند منجر به مواردی از تشخیص اشتباه هویت، بازداشت نادرست یا تبعیض علیه اقلیت‌ها شود. 
در حالی که مقامات آمریکایی به طور فزاینده‌ای برای حل مشکلات مهم به هوش مصنوعی و تجزیه و تحلیل خودکار داده‌ها روی آورده‌اند، اما دفتر مدیریت و بودجه که مسئول هماهنگ‌کردن رویکرد آژانس‌های فدرال درباره طیف وسیعی از مسائل در حیطه هوش مصنوعی است، هنوز پیش‌نویس سیاست دولت در این زمینه را نهایی نکرده است.  
دفتر پاسخگویی دولت آمریکا نوشت: فقدان خط مشی و راهنما در حوزه فناوری هوش مصنوعی تا مدت‌ها باعث شد که آژانس‌ها به طور کامل اقدامات اساسی در مدیریت هوش مصنوعی را اجرا نکنند. 
بر اساس این گزارش، طبق یک قانون فدرال که با حوزه هوش مصنوعی در امور دولت آمریکا سروکار دارد، دفتر مدیریت و بودجه دولت این کشور باید پیش‌نویس دستورالعمل‌های استفاده از هوش مصنوعی را تا سپتامبر ۲۰۲۱ (مهرماه ۱۴۰۰) برای آژانس‌ها صادر می‌کرد، اما این فرصت را از دست داد و دو سال بعد در نوامبر ۲۰۲۳ (ماه گذشته) پیش‌نویس دستورالعمل خود را صادر کرد. 
دفتر مدیریت و بودجه دولت آمریکا اعلام کرد که پیش‌نویس دستورالعملی که منتشر کرده، در راستای عمل به فرمان اجرایی رئیس‌جمهور این کشور درباره ایمنی هوش مصنوعی بود.
 بر اساس دستورالعمل کاخ سفید، فرمان اجرایی اخیر هوش مصنوعی بایدن، توسعه‌دهندگان قوی‌ترین سیستم‌های هوش مصنوعی را ملزم می‌کند که نتایج آزمایش مدل‌های خود را با دولت به اشتراک بگذارند.
 در این سال، تعدادی از شرکت‌های پیشرو هوش مصنوعی نیز به دولت بایدن قول دادند که مدل‌های هوش مصنوعی خود را قبل از انتشار عمومی آزمایش کنند.
 دستور اجرایی بایدن مواردی را به مجموعه الزامات رو به رشد آژانس‌های فدرال در خصوص سیاست‌های هوش مصنوعی اضافه می‌کند. برای مثال، وزارت انرژی آمریکا موظف می‌شود پتانسیل هوش مصنوعی را برای تشخیص تهدیدات مربوط به سلاح‌های شیمیایی، بیولوژیکی یا هسته‌ای ارزیابی کند.
 گزارش اخیر دفتر پاسخگویی دولت آمریکا فهرست جامعی از الزامات مرتبط با هوش مصنوعی را که کنگره یا کاخ سفید از سال ۲۰۱۹ بر آژانس‌های فدرال تحمیل کرده‌اند، شناسایی و عملکرد آن‌ها را درجه‌بندی کرد.
 این گزارش علاوه بر مقصر دانستن دفتر مدیریت و بودجه دولت آمریکا به دلیل ناتوانی در ارائه یک برنامه دولتی برای هوش مصنوعی، کاستی‌هایی را در رویکرد‌های برخی سازمان‌ها و نهاد‌های این کشور در مورد هوش مصنوعی احصا کرد. 
 طبق این گزارش، ۱۰ آژانس فدرال از وزارت خزانه‌داری گرفته تا وزارت آموزش، فاقد برنامه‌های لازم برای به‌روزرسانی فهرست موارد استفاده از هوش مصنوعی در طول زمان بودند که می‌تواند مانع از درک عمومی از نحوه استفاده دولت از هوش مصنوعی شود.

  • ۰۲/۰۹/۲۴

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">